#GTC 2026
【GTC 2026】黃仁勳:不想被淘汰,馬上做3件事
筆記君說:今天凌晨,黃仁勳在GTC2026大會上兩個多小時的演講,刷屏了整個科技圈。很多人看完,都在聊1兆美元的營收預期,聊2年350倍性能躍升的Vera Rubin系統。但我要告訴你:這些都不是這場演講裡,最顛覆、最和你息息相關的內容。真正決定未來3年,你的企業能不能活下去、你的職場之路能不能往上走的,是黃仁勳花了近三分之一篇幅講的智能體革命,以及他那句石破天驚的判斷:智能體(Agent)會完全改變企業和每個人的工作方式。很多人可能還沒反應過來,這句話到底意味著什麼。不誇張地說,它是一把正在落下的錘子,馬上就要砸到每一個企業管理者、創業者的頭上。這篇文章,我就把黃仁勳沒說透的底層邏輯給你掰開揉碎講清楚,看完你就會明白:為什麼說OpenClaw是智能體時代的作業系統?想要不被淘汰,你現在立刻就能落地的3件事是什麼?一、智能體時代的作業系統,來了咱們先聊個簡單的話題:每一個計算時代,都有一個“定規矩”的核心。PC時代,定規矩的是Windows;伺服器網際網路時代,是Linux(筆記俠註:全世界最著名和最常用的開源作業系統);移動網際網路時代,是Android和iOS。你發現沒?每一次時代更迭,最先賺紅利、最能定規則的,永遠是作業系統。因為所有的應用、所有的服務,都得在它的框架裡跑,它就是那個“幕後老闆”。那現在,AI智能體時代來了,誰來定規矩?黃仁勳在演講裡,給了全行業一個明確答案:OpenClaw。他甚至放了句狠話:這是人類歷史上最受歡迎的開放原始碼專案,短短幾周,就超越了Linux三十年的成就。很多人第一反應都是:太誇張了吧?一個剛冒出來的項目,也敢和Linux比?其實不是誇張,是你沒看懂。這倆解決的,根本不是一個時代的問題。下面,咱們用大白話掰扯清楚:Linux解決的是“電腦怎麼管好硬體和軟體,讓程序能穩定跑起來”。它服務的是電腦,本質是幫人“操控電腦”,讓我們能用電腦辦公、上網、做軟體。而OpenClaw解決的,是“AI智能體怎麼管好工具和任務,把使用者要的事給辦成”。它服務的是AI智能體,本質是幫智能體“操控整個數字世界”,讓智能體替我們幹活。再通俗點說:OpenClaw不是一個簡單的外掛、一個工具,它是智能體的“大管家”。比如你給智能體一個任務:“幫我做一份一季度銷售復盤,找出業績下滑的核心原因,給出可落地的最佳化方案”。不用你手把手教,OpenClaw就能幫智能體把活安排得明明白白:① 管資源:自動調度對應的大模型、工具,分配好資料權限,不用你手動找模型、開權限;② 拆任務:把“做銷售復盤”這個大目標,拆成“拉取銷售資料、做同比分析、找異常節點、訪談一線銷售、寫方案”等小任務,甚至能呼叫子智能體分頭幹活;③ 接工具:自動對接CRM系統、Excel、企業微信,不用你手動導資料、傳檔案,省去所有繁瑣操作;④ 控流程:一步步推進每個小任務,校驗每一步的結果,最後給你一份完整的、可直接用的復盤方案。你看,過去的作業系統,是幫人“用電腦”;而OpenClaw,是幫智能體“辦事”。這是從“工具”到“執行者”的底層邏輯顛覆,這也是黃仁勳敢說它能超越Linux的核心原因。每一個新時代的開啟,都始於一個定規則的作業系統。OpenClaw的出現,不是多了一個開放原始碼專案,而是智能體計算時代的“發令槍”已經響了。二、企業IT,正在迎來一場“文藝復興”商業模式變了,支撐企業運轉的IT體系,自然也得跟著“換血”。黃仁勳在演講裡說,OpenClaw出現後,企業IT正在迎來一場“文藝復興”。這句話很多人沒聽懂,我給你講得明明白白。過去的企業IT,所有邏輯都是圍繞“人”來建的。我們給員工配電腦、裝軟體、開權限,建防火牆防外人進來,建權限體系防員工亂操作,建資料體系幫人存資料、用資料。核心就一個:讓人能安全、高效地用工具幹活。但智能體時代,這個邏輯徹底變了。未來你的企業裡,幹活的不只是人,還有成百上千個AI智能體。它們要訪問公司的核心財務資料、客戶敏感資訊,要執行程式碼、對接外部系統、給客戶發郵件、簽合同。這時候最大的問題來了:你怎麼管這些智能體?怎麼保證它不洩露公司核心資料?怎麼保證它不瞎操作、給公司造成損失?怎麼保證它不被駭客攻擊、變成別人的作案工具?這就是企業IT的徹底重構:過去的IT體系,是“管好人”;未來的IT體系,核心是“管好智能體”。這可不是簡單加一套系統、買一個軟體就能解決的。你的IT架構、IT團隊的能力模型、甚至整個企業的數位化邏輯,都得推倒重來。那些還在沉迷於“上系統、做數位化轉型”的企業,要是不趕緊轉向“智能體化轉型”,很快就會發現:你花了成百上千萬搭的IT體系,在智能體時代,就是個沒用的空架子。過去企業數位化的終點,是讓所有人都用上好用的數位化工具;未來企業數位化的起點,是讓所有智能體,都在安全可控的框架裡,幫企業把事辦好。三、“年薪 + Token”,正在重新定義職場規則講完企業,咱們聊點和每一個人都息息相關的事——職場。黃仁勳在演講裡,說了一件讓整個矽谷炸鍋的事:“未來,公司裡的每一位工程師都將擁有年度token預算。他們年薪可能是幾十萬美元,我會額外給他們相當於薪資一半的token配額,讓他們的產出放大10倍。入職附帶多少token配額已經成為矽谷的新晉招聘話題。”很多人會問:Token不就是AI生成內容的基本單位(詞元)嗎?怎麼還和年薪掛鉤了?咱們還是用大白話講:Token,就是AI時代的“電”,是智能體幹活的“燃料”,也是你“養智能體”的“飼料”。你要讓AI幫你寫程式碼、做方案、跑資料、拆任務,都得消耗Token。你手裡的Token越多,能呼叫的模型越先進、智能體幹活越快、能完成的任務越複雜。而“年薪 + Token預算”這個模式,背後藏著一個非常殘酷的現實:職場人的核心競爭力,正在被徹底重構。過去,你的核心競爭力是什麼?是“你會不會幹”。程式碼寫得又快又好,你就是值錢的程式設計師;PPT做得漂亮、方案寫得好,你就是值錢的營運;能搞定客戶、簽下訂單,你就是值錢的銷售。你的專業執行能力,就是你的職場護城河。但未來,這些執行層面的事,有些AI智能體都能幹,而且比你快、比你准、比你便宜。你寫一天的程式碼,智能體10分鐘就能寫完,還沒bug;你熬3天做的方案,智能體1小時就能出3版,還比你考慮得周全;你花一周跟進的客戶,智能體已經同步跟進了幾十個,還能精準匹配客戶需求。這時候,你的核心競爭力,變成了你會不會定目標、拆任務、給智能體精準的指令;是你會不會管著幾十個智能體協同幹活,把控流程和結果;是你會不會做決策、定策略、校驗對錯,給智能體指明方向。未來,沒有Token預算、不會用智能體的職場人,就像今天不會用電腦、不會用Office的人一樣,會被徹底淘汰。而那些能用好Token、用好智能體,把自己的效率放大10倍、20倍甚至100倍的人,會拿到遠超別人的薪資和機會。四、想要抓住紅利,你必須立刻做這3件事講到這裡,你應該明白了:智能體帶來的變革,不是1年、3年之後的事,是現在正在發生的事。黃仁勳已經把底牌全亮出來了,剩下的,就是看誰能快速行動。不管你是企業家、管理者,還是創業者、普通職場人,想要不被這場變革淘汰,現在必須立刻落地下面這3件事,缺一不可。第一件事:立刻制定你的“智能體戰略”企業別再沉迷於傳統的數位化轉型了,現在要做的是“智能體化轉型”。立刻想清楚你的業務裡,那些環節可以用智能體替代執行(比如財務記帳、銷售跟進)?把智能體戰略當成公司的一號工程,成立專項團隊,先找一個環節試點,跑通了再全面推廣,別等別人跑通了再跟風。團隊別再死磕執行層面的技能了(比如練PPT、練程式碼),立刻給自己做一個“智能體能力提升計畫”。每天花1小時,學怎麼定目標、拆任務、寫精準的提示詞,學怎麼管智能體、校驗結果,慢慢把自己從“執行者”,變成“智能體的管理者”,這才是未來企業的核心競爭力。第二件事:立刻搭建智能體的安全管控體系別等智能體出了事、洩了密、造成了損失,再去補窟窿——那時候就晚了。現在就想清楚:你的企業資料,那些可以給智能體用?那些絕對不行?智能體的權限怎麼劃分?那些操作是紅線?怎麼監控智能體的所有行為?怎麼保證資料安全和合規?提前把安全的籬笆紮好,把風險控制在源頭,才是最省心、最省錢的方式。第三件事:立刻把“Token”納入你的預算體系如果你是老闆和創業者,別再只盯著伺服器、軟體、人力的預算了。未來,Token就是企業的核心生產資料,就像今天的電費、房租一樣,是必須的剛性支出。建議你現在就規劃好Token的採購、分配、管理體系,給每個部門、每個核心員工配好對應的Token預算,讓大家先用起來、先跑通流程。早用一天,就能多賺一天的效率紅利。未來最值得的投資,就是花錢買Token,去用最前沿的模型、最厲害的智能體,試著讓它幫你做報表、寫方案、跑資料,把效率提上來,把核心能力練出來。這才是未來最保值、最靠譜的投資,沒有之一。結語黃仁勳的這場演講,與其說是一場產品發佈會,不如說是一場關於AI時代的終局預判。很多人看到了兆的營收預期,看到了領先幾代的晶片技術,但真正決定未來的,是智能體帶來的這場底層革命。PC時代,淘汰了不會用電腦的人;網際網路時代,淘汰了不會上網的人;移動網際網路時代,淘汰了不會用智慧型手機的人;AI智能體時代,一定會淘汰不會用智能體的企業和個人。唯一能讓你穿越這場變革的,永遠是提前看見趨勢,然後立刻付諸行動。 (筆記俠)
【GTC 2026】GTC後黃仁勳萬字採訪:輝達的真正底牌,從來不是晶片
剛剛完成GTC大會演講的黃仁勳,接受了《STRATECHERY》的創始人Ben Thompson(下文簡稱為Ben)的專訪,下面是本次專訪的摘要和全文實錄:【摘要】黃仁勳圍繞輝達 GTC 演講 “回歸本源” 的核心邏輯,闡釋了公司戰略、技術佈局、行業競爭與地緣政策等關鍵主張,明確輝達並非單純晶片廠商,而是以 CUDA 為根基的全端加速計算企業。黃仁勳指出,此次重述 CUDA 與發展歷史,是因 AI 正進入全新行業,需加速全球各類軟體以適配 AI 工具使用需求,輝達正將軟體加速拓展至資料處理等新領域。其核心戰略是打造吉瓦級人工智慧工廠,提供從晶片到系統再到基礎設施的全端服務,通過統一協同設計突破性能瓶頸、降低成本,而非單純提供晶片。模型技術層面,認為 Transformer 並非萬能架構,需結合狀態空間模型、幾何感知等新技術,應對超長記憶、連續資訊生成等問題;AI 已跨越實用臨界點,推理能力與事實關聯的提升推動工具使用落地,程式碼生成是標誌性突破,智能體的反思能力可覆蓋從標準化程式碼到美學設計的多元場景。關於 CPU,黃仁勳澄清輝達從未排斥 CPU,而是遵循阿姆達爾定律,採用頂級 CPU 保障 GPU 資源不被浪費;自研 Grace、Vera 處理器聚焦極致單線程與 IO 性能,以適配 AI 智能體場景,同時通過與英特爾合作維持 x86 生態相容性。收購 Groq 則是分離式推理架構的戰略延伸,結合其低延遲優勢滿足高價值程式碼智能體需求,延續了輝達 “軟硬體深度耦合、最優位置部署計算” 的核心優勢。資源與市場方面,當前 AI 核心瓶頸為能源、晶片等全鏈條稀缺,輝達憑藉供應鏈佈局佔據優勢;他擔憂美國相關政策損害五層 AI 架構的領導地位,且 AI 末日論正誤導政策制定者、降低民眾支援度,需警惕重蹈歐洲工業革命覆轍。企業定位上,輝達堅持垂直整合技術、水平開放生態,不做解決方案與服務提供商,而是為全行業提供技術堆疊;開源模型研發旨在深化計算理解,而非爭奪市場。公司依託統一的 CUDA-X 平台理念與組織協同,實現多元業務的核心邏輯統一,持續堅守加速計算的核心使命。【全文實錄】Ben:黃仁勳,歡迎再次做客《STRATECHERY》。黃仁勳:很高興能和你對話。Ben:你剛走下演講台,我覺得演講時長還超出了預期,而你在這次我非常欣賞的主題演講中,花了大量篇幅闡釋輝達的發展脈絡,從可程式設計著色器的歷史講起,一直說到20 年前 CUDA 的推出。我們不必花太多時間複述這些內容,你講得已經很詳盡了,而且《STRATECHERY》的讀者們肯定也很熟悉—— 抱歉,這裡算是個鋪墊 ——《STRATECHERY》的讀者們都瞭解,我也清晰記得,大概六七年前甚至更久以前,有人問我為什麼輝達能在一次GTC 大會上發佈如此多的產品,我當時解釋說,這一切都依託於 CUDA 和各類軟體庫,本質上是在重複做同一件事,只是針對不同行業落地應用。這也是你今天傳遞的核心觀點,而在過去幾屆 GTC 和消費電子展都高度聚焦人工智慧之後,這次演講有種 “回歸本源” 的意味。你為什麼覺得現在有必要講述這段歷史?重新詮釋 CUDA,以及強調它的重要性?黃仁勳:因為我們正在進軍大量全新的行業,而且人工智慧會使用工具,這些工具原本是為人類設計的。人工智慧會使用Excel,會使用 Photoshop,會使用邏輯綜合工具、新思科技的工具、楷登電子的工具。這些工具都需要超級加速,人工智慧使用的資料庫也需要超級加速,因為人工智慧的運行速度極快。所以我認為,在這個時代,我們需要儘可能快地完成全球所有軟體的加速,然後將其交付給人工智慧,讓人工智慧能夠自主地使用這些工具。Ben:所以這是不是意味著,我們已經為多個領域完成了軟體加速,現在要拓展到更多領域?黃仁勳:沒錯,大量全新的領域。比如資料處理領域。Ben:這確實有些出人意料。我沒想到你會以與IBM 的合作作為開場。黃仁勳:是啊,這一點很能說明問題。畢竟,他們才是這一切的開創者。Ben:你上周撰文指出,人工智慧是一個五層架構:算力、晶片、基礎設施、模型與應用。你是否擔心,在過去四五年裡,自己會被侷限在“晶片廠商” 的定位裡?因此,不僅要提醒外界,也要提醒自身,輝達是一家垂直整合的公司 —— 不僅是建構系統,更是深入整個軟體棧,我們絕非單純的晶片企業。黃仁勳:我的思考出發點從來不是“我們不是什麼”,而是 “我們需要成為什麼”。早在那時,我們就意識到加速計算是一個全端問題,必須理解應用場景才能實現加速。我們明白,需要深耕應用場景、搭建開發者生態、具備頂尖的演算法研發能力,因為為中央處理器設計的傳統演算法並不適配圖形處理器,所以我們必須重寫、重構演算法,才能讓圖形處理器實現加速效果。而一旦做到這一點,就能實現50 倍、100 倍、10 倍的性能提升,這一切都極具價值。從一開始,我們就想清楚了:我們的目標是什麼,實現目標需要付出什麼。如今,我們正在打造人工智慧工廠,在全球範圍內建設人工智慧基礎設施。這遠不止是研發晶片,儘管晶片顯然至關重要,是一切的基礎。Ben:沒錯,這涉及到完整的網路、儲存架構搭建,現在你們又涉足了中央處理器領域。黃仁勳:現在必須將所有元件整合為巨型系統—— 一座吉瓦級人工智慧工廠的投入大概在 500 億至 600 億美元。其中,約 150 億至 170 億美元用於基礎設施:土地、電力和廠房主體。剩餘資金則投入計算、網路、儲存等相關領域,如此大規模的投資,除非能幫助客戶建立成功落地的信心,否則沒人會冒 500 億美元的風險。所以這就是我們的核心理念:我們不僅要為客戶提供晶片,還要幫助他們建構系統;建構系統之後,還要助力他們打造人工智慧工廠。人工智慧工廠內部整合了大量軟體,不僅有我們的軟體,還包括製冷管理、電力控制、冗餘備份等各類軟體,且很多部分都採用了過度設計,原因是各環節團隊缺乏協同。當多個缺乏溝通的團隊進行系統整合時,必然會對各自負責的模組進行過度設計。但如果我們以統一團隊協作,就能突破性能極限,在現有電力條件下提升吞吐量,或是在既定吞吐量下節約成本。Ben:回到軟體層面,你提到Excel 並非為人工智慧使用而設計。如今像克勞德這類大模型已經具備使用 Excel 的新功能,你所說的投資研發這些軟體庫,是為了讓這類模型表現更出色嗎?還是說,這是為微軟或企業客戶服務 —— 你們希望自主掌控,不願受制於行業內的其他參與者?黃仁勳:SQL 就是一個很好的例子。SQL 原本供人類使用,是企業業務的核心資料載體,我們和其他企業一樣都在最佳化 SQL 系統。而未來,使用 SQL 資料庫的不再只是人類,還會有大量智能體。Ben:沒錯,智能體的操作速度會快得多。黃仁勳:它們的操作速度需要大幅提升。所以首先要做的就是加速SQL,這是最基礎的邏輯。Ben:這很合理。關於模型,你指出語言模型只是其中一個類別。你在上周的文章中寫道:“一些最具變革性的研究集中在蛋白質人工智慧、化學人工智慧、物理模擬、機器人與自主系統領域。” 你此前也曾提出過類似觀點,並在其他主題演講中用過 “萬物皆可 Token 化” 這一表述。你認為 Transformer 架構是解決所有問題的關鍵嗎?還是說,我們需要新的底層突破才能實現這些應用?黃仁勳:我們需要各類全新的模型。比如Transformer 架構的注意力機制計算量呈二次方增長,如何實現超長記憶?如何讓對話持續極久,同時避免鍵值快取逐漸失效?Ben:甚至需要整機架的固態硬碟來儲存鍵值快取。黃仁勳:當然,假設我們能記錄下所有對話內容,當回溯參考某段對話時,如何判斷那部分資訊最重要?這就需要全新的架構來合理處理注意力機制,並實現快速運算。我們研發出Transformer 與狀態空間模型結合的混合架構,這也是 Nemotron 3 大模型兼具超強智能與高效性能的原因,這就是一個典型案例。再比如,我們開發出具備幾何感知能力的模型,自然界中的很多事物都具有對稱性。因此生成這類模型時,不能只追求統計上的合理性,還必須符合物理規律,保證對稱性。cuEquivariance 技術就能實現這一目標。我們擁有諸多此類技術—— 再比如,文字 Token 是逐塊、逐詞生成的,而動作生成則需要連續性。因此存在離散資訊與連續資訊兩種生成與理解形式,Transformer 架構並非對兩者都適配。Ben:沒錯,這一點很合理。推理與程式碼生成Ben:再引用你文章中的一段話:“過去一年,人工智慧跨越了重要的臨界點。模型性能達到規模化實用標準,推理能力提升,幻覺現象減少,事實關聯能力顯著增強。基於人工智慧的應用首次開始創造實際經濟價值。” 這一轉變的具體體現是什麼?回顧時間節點,我認為接下來的一年無疑是智能體的時代,我今天也剛撰寫了相關內容 —— 但就去年而言,推理能力的提升是核心突破嗎?黃仁勳:生成式人工智慧當然是重大突破,但它存在嚴重的幻覺問題,因此需要實現事實關聯,而實現這一點的途徑就是推理、反思、檢索與搜尋,我們通過這些方式讓模型錨定現實。沒有推理能力,這一切都無從談起,正是推理讓生成式人工智慧實現了事實關聯。一旦實現事實關聯,系統就能推理問題並拆解任務,轉化為可執行的操作,下一代發展就是工具使用。這其實也揭示了一個現象:搜尋是一項無人付費的服務,原因在於獲取資訊固然重要且實用,但並不足以讓人付費。讓使用者願意付費的門檻遠高於單純提供資訊。“那家餐廳不錯?” 這類資訊,我認為並不值得付費。當然也有人為此付費,我自己也會。如今我們已經跨越了這個臨界點。人工智慧不僅能與我們對話、提供資訊,還能為我們執行任務。程式碼生成就是完美的例證。仔細思考就會發現,程式碼生成與語言生成並非同一模態,需要學習空格、縮排、符號規則,幾乎是一種全新的模態,無法逐Token 生成程式碼,必須對程式碼塊進行反思最佳化。程式碼塊需要合理拆分、性能最優,且必須能編譯運行,其依據不是機率上的合理性,而是實際執行效果。Ben:沒錯,關鍵在於能否正常運行。黃仁勳:程式碼必須能正常運行。所以我認為,模型學習程式碼這一模態是重大突破。如今,我們每年支付數十萬美元聘請工程師編寫程式碼,而他們現在擁有了程式碼助手。工程師可以專注於架構設計,無需耗費大量精力手寫程式碼,只需通過抽象的規格描述軟體需求,工作效率大幅提升。他們只需明確規格與架構,將時間投入問題解決與創新,現在我們的軟體工程師百分百使用程式碼智能體,很多人已經很久沒有手寫一行程式碼,卻依然高效且忙碌。Ben:但你是否認為,人們容易從程式碼生成這一可驗證場景過度推導?智能體不僅能生成程式碼,還能驗證效果,若運行失敗則重新最佳化,整個過程無需人類參與,因為存在明確的“成功與否” 判斷標準。黃仁勳:因為智能體具備反思能力。比如設計房屋,原本這是建築師、設計師的工作,現在木匠也能借助智能體完成。智能體提升了木匠的能力,讓他們可以設計房屋、廚房,打造出新穎的風格。這類智能體沒有可執行的驗證工具。但你可以給出參考示例,比如“我想要這類風格,希望具備這樣的美學效果”。智能體能夠反思,將程式碼質量、成果效果與參考標準對比,然後判斷 “效果未達預期,需要重新最佳化”,進而迭代改進。並非所有任務都需要完全可執行,事實上,越是機率性、美學化、主觀性的任務,人工智慧的表現反而越好。Ben:沒錯,這就形成了兩個極端:圖像生成沒有標準答案,程式碼生成有標準答案,而人工智慧在這兩端都表現出色,問題在於如何覆蓋中間場景。黃仁勳:我們確信,人工智慧現在已經能勝任建築設計、廚房與客廳設計。中央處理器在加速計算中的角色Ben:說到這裡,隨著智能體的普及,你一直大力倡導加速計算,甚至可以說此前對中央處理器頗有微詞,認為其終將被全面取代,所有場景都將實現加速。但如今中央處理器再度成為熱點,其作用依然重要,而你們也開始銷售中央處理器。成為中央處理器廠商,你有何感受?黃仁勳:毋庸置疑,摩爾定律已經失效。加速計算並非平行計算。回顧30 年前,市場上曾有數十家平行計算企業,最終只有輝達存活下來,原因在於我們始終明確核心目標:並非淘汰中央處理器,而是實現應用加速。Ben:所以我剛才對你的誤解,其實是其他所有企業的通病。黃仁勳:我們從未敵視中央處理器,也不願違背阿姆達爾定律。事實上,在我們的系統中,我們會選用最頂尖的中央處理器,採購最昂貴的型號,因為如果中央處理器性能不足,會拖累價值數百萬美元的晶片。Ben:過去關注分支預測,擔心浪費中央處理器時間,現在則擔心浪費圖形處理器時間。黃仁勳:沒錯,圖形處理器的資源絕不能被浪費,其執行階段間不能閒置。因此我們始終採用最頂尖的中央處理器,甚至自主研發Grace 處理器,以實現最高的單線程性能,更快地完成資料傳輸。加速計算從未排斥中央處理器,我的核心觀點依然成立:阿姆達爾定律主導的時代已經結束,依靠通用計算持續增加電晶體的模式已然消亡,從根本上而言,我們並不反對中央處理器。而如今智能體能夠使用工具,這些工具分為兩類:一類是資料中心運行的工具,主要是SQL 及資料庫相關工具;另一類是個人電腦端工具。未來人工智慧將能夠學習非結構化工具使用,第一類則是結構化工具。命令列介面、應用程式介面都屬於結構化工具,指令明確、參數清晰,與應用的互動方式特定。但還有大量應用並未設計命令列介面與應用程式介面,這類工具需要人工智慧學習多模態、非結構化操作,能夠瀏覽網頁、識別按鈕與下拉菜單,像人類一樣操作。這類工具使用需要依託個人電腦,而我們在兩端都有佈局:擁有頂尖的資料處理系統,同時輝達個人電腦也是全球性能最強的產品。Ben:那麼,面向智能體的中央處理器與傳統中央處理器有何區別?你們會推出純Vera 中央處理器機架嗎?黃仁勳:這個問題問得很好。過去十年的中央處理器設計,均面向超大規模雲服務商,而云服務商通過CPU 核心盈利。因此設計目標是儘可能增加可租賃的核心數量,性能反而居於次要地位。Ben:這類處理器主要應對網頁延遲問題。黃仁勳:完全正確。最佳化核心是CPU 實例數量,這也是市面上出現數百核中央處理器的原因。但這類處理器性能有限,而在工具使用場景中,圖形處理器會等待工具呼叫結果 ——Ben:且資料通過NVLink 傳輸。黃仁勳:沒錯,我們需要性能最強的單線程處理器。Ben:這僅僅是速度問題嗎?還是中央處理器需要更強的平行能力以避免快取缺失?整個處理器流水線設計都截然不同?黃仁勳:最核心的是單線程性能,同時輸入輸出性能必須極致。在資料中心場景中,單線程實例數量龐大,會對輸入輸出系統與記憶體控製器產生極高負載。Vera 處理器的單核心頻寬、單處理器頻寬是現有所有中央處理器的三倍,專為超大輸入輸出頻寬與記憶體頻寬設計,避免中央處理器出現性能瓶頸。一旦中央處理器受限,就會拖累大量圖形處理器。Ben:你提到Vera 機架與圖形處理器機架緊密耦合,那麼二者是否仍採用分離架構,讓圖形處理器為多個 Vera 核心提供服務?而非將 Vera 核心與圖形處理器整合在同一塊板卡上?黃仁勳:是的。Ben:好的,我明白了。那麼與英特爾的合作以及NVLink 技術在其中扮演什麼角色?黃仁勳:全球部分市場認可Arm 架構,而企業計算領域仍有大量軟體棧不願遷移,因此 x86 架構依然至關重要。Ben:x86 程式碼的生命力之強是否讓你感到意外?黃仁勳:並不意外。輝達個人電腦仍採用x86 架構,所有工作站也都是 x86 架構。GroqBen:首先要向你表示祝賀,正如你在今天主題演講中所說,你是Token 之王。你在文章中還提到,能源是人工智慧基礎設施的第一性原理,也是系統智能生成能力的核心約束。既然如此,Token 生成量受資料中心能源限制,為何還有企業試圖與 Token 之王競爭?黃仁勳:競爭難度極大,僅憑研發一款晶片就想實現顛覆性突破並不現實。即便Groq公司,也只有與Vera Rubin 處理器協同,才能發揮其技術價值。Ben:這正是我接下來要問的關於Groq的問題。黃仁勳:從整個推理場景來看,一方面要追求最大吞吐量,另一方面要生成更高品質的Token——Token 質量越高,商業價值越高。如何平衡這兩大目標,實現吞吐量與智能性的最大化,是極具挑戰的難題。Ben:不得不說,去年你展示過帕累托曲線幻燈片,推出Dynamo 技術時提到,輝達圖形處理器能夠覆蓋全場景,使用者只需採購輝達圖形處理器,Dynamo 就能兼顧兩大目標。但如今你卻表示,圖形處理器無法完全覆蓋所有場景。黃仁勳:我們的覆蓋能力依然優於所有現有系統。我們能進一步拓展帕累托最優邊界,尤其是在超高Token 速率與超低延遲場景,但這會犧牲部分吞吐量。然而,程式碼智能體等人工智慧應用創造了極高的經濟價值,且與人類使用者深度繫結,人類使用者的價值遠超圖形處理器。Ben:沒錯,人類的成本比圖形處理器更高。黃仁勳:因此我希望為軟體工程師提供最高Token 速率的服務。如果 Anthropic 推出Claude Code,將程式碼生成速率提升10 倍,我絕對願意為此付費。Ben:所以這款產品是為你們自身需求研發的?黃仁勳:大多數偉大的產品都源於對痛點的深刻感知,以及對市場趨勢的精準判斷。我們迫切希望程式碼智能體的運行速度提升10 倍,但高吞吐量系統難以實現這一目標,因此我們決定整合Groq的低延遲系統,實現協同處理。Ben:那麼這只是將解碼與預填充階段分離嗎?黃仁勳:我們還會處理解碼中的高算力、高浮點運算部分,也就是注意力機制相關的解碼運算。Ben:也就是說,甚至在解碼層面也實現了分離架構。黃仁勳:沒錯,這需要軟硬體的深度耦合與緊密整合。Ben:這筆交易幾個月前才宣佈,你們卻計畫今年晚些時候推出產品,如何實現這一進度?黃仁勳:我們早已開始研究分離式推理架構,Dynamo 技術已經明確了輝達的技術方向。宣佈 Dynamo 技術時,我就已經在思考如何在異構基礎設施中更精細地分離推理任務,而Groq的架構是我們技術路線的極致延伸,他們此前的研發麵臨諸多困難。Ben:Dynamo 技術是一年前推出的,而Groq的合作是在聖誕節前後敲定的。是否有特定事件推動了這一決策?黃仁勳:我一年前宣佈Dynamo 技術,而我們已經研發了兩年,分離式推理的研究已有兩三年時間。在宣佈收購交易前約六個月,我們就開始與Groq合作,提前規劃Grace Blackwell 與Groq技術的融合。我很欣賞Groq的團隊,我們無意收購其雲服務業務。他們另有核心業務且發展良好,這並非我們的目標,因此我們決定收購其團隊並獲得技術授權,隨後基於底層架構持續迭代最佳化。Ben:這算是機緣巧合嗎?黃仁勳:是戰略層面的意外之喜。Ben:比如OpenAI 在今年 1 月宣佈與 Cerebras 合作。黃仁勳:這與我們完全無關,事實上我此前並不知情,但即便知曉也不會改變決策。我依然會選擇Groq的架構,其技術邏輯更合理。Ben:這是否是首次有專用積體電路方案讓你眼前一亮,意識到其底層設計的顛覆性?黃仁勳:並非如此,邁絡思公司就是先例。Ben:這個例子很恰當。黃仁勳:是的,邁絡思。我們將部分計算棧整合到邁絡思的技術堆疊中。沒有與邁絡思合作實現的網路內計算,就無法實現當前規模的NVLink。將軟體棧分離並部署到最優位置,是輝達的核心優勢。我們並不執著於計算的執行位置,只專注於應用加速。請記住,輝達是加速計算公司,而非單純的圖形處理器公司。Ben:沒錯。你提到能源是核心約束,客戶在採購時,是選擇傳統圖形處理器,還是LPU 機架?你是否確信,後者能為客戶帶來更高的營收?黃仁勳:這取決於客戶的業務類型。如果目前沒有企業級應用場景,那麼增加Groq裝置並無太大意義,因為大部分客戶是免費使用者,尚未轉化為付費使用者。假設免費使用者佔三分之二、付費使用者佔三分之一,增加Groq裝置會大幅提升成本,消耗電力資源,得不償失。Ben:還會增加系統複雜度,佔用伺服器,產生機會成本。黃仁勳:這些伺服器原本可以為免費使用者提供服務。但如果是Anthropic、OpenAI 這類企業,其程式碼模型創造了極高的經濟價值,只是希望提升 Token 生成量,那麼增加這類加速器就能顯著提升營收。中國市場與人工智慧末日論者Ben:2026 年,我們面臨的約束究竟是能源、晶圓產能,還是其他因素?業內普遍認為供應不足,實際的核心瓶頸是什麼?黃仁勳:幾乎所有資源都處於緊缺狀態,任何環節都無法實現翻倍供給。Ben:因為總會觸發其他環節的約束。黃仁勳:沒錯。Ben:不過美國在能源調配方面的表現超出了幾年前的預期,目前晶片似乎是更核心的瓶頸。黃仁勳:我們的供應鏈規劃十分完善。我們為今年的高速增長做了充分準備,也在規劃明年的大規模發展。Ben:我們都看到了你們為供應鏈合作付出的努力。黃仁勳:(笑)沒錯。我們的供應鏈擁有數百合作夥伴,且建立了長期合作關係,因此我對這一環節很有信心。我們的能源、晶片供應都無法滿足翻倍需求,所有資源都存在缺口。但從供應鏈角度來看,我們有能力支撐未來的發展,我最希望的是土地、電力、廠房基礎設施的建設速度能更快。Ben:那麼公平地說,在資源稀缺的背景下,輝達是否是最大的受益者?能源稀缺時,我們的晶片效率最高,能更好地利用能源;晶圓產能緊張時,如你所說,我們提前佈局保障了供應鏈,是否在這一背景下成為最大贏家?黃仁勳:我們是該領域規模最大的企業,且規劃工作做得十分出色。我們對供應鏈上下游都進行了周密佈局,為行業增長做好了充分準備。Ben:但無法進入中國市場是否構成潛在威脅?如果中國擁有充足的能源與晶片產能,即便晶片僅為7 奈米工藝,也有能力建構生態系統,長期來看與 CUDA 形成競爭,這是否是你的擔憂?黃仁勳:我們必須確保中國市場採用美國技術堆疊,從一開始我就始終堅持這一觀點,因為開放原始碼軟體必然會興起。沒有那個國家對開放原始碼軟體的貢獻超過中國,全球50% 的人工智慧研究人員來自中國,且極具創新能力。DeepSeek並非普通技術,其性能極為出色;Kimi、通義千問也同樣優秀,在架構與人工智慧技術堆疊方面都做出了獨特貢獻,我們必須重視這些企業。全球科技生態都建構在美國技術堆疊之上,當中國的開源技術向外擴散時,美國技術堆疊有能力承接。我始終認為,這是美國科技行業最重要的地緣戰略問題。Ben:上次我們對話時,川普政府已禁止H20 晶片出口。你是否驚訝於能說服川普政府接受你的觀點?而如今又被中國市場阻攔,是否更感意外?黃仁勳:被中國市場阻攔並不意外,因為中國需要發展自主技術堆疊。在我們退出市場的這段時間裡,中國行業發展速度極快,華為實現了公司歷史上的最佳業績。作為一家老牌企業,華為創下了營收紀錄,還有五六家晶片企業成功上市,聚焦人工智慧領域。我們需要更具戰略性地思考美國的科技領導地位與地緣政治優勢。人工智慧並非只有模型,這是一個深刻的誤區—— 正如我所說,也是你開篇提到的,人工智慧是五層架構,我們必須在基礎設施、晶片、平台、模型、應用每一層都保持領先。我們當前的部分政策,正在損害國家在這五層架構中的領導能力。認為通過自上而下整合所有企業、形成統一技術堆疊就能獲勝,是極其錯誤的想法。我們必須讓每一層都自主參與市場競爭。Ben:是否其他領域的企業更早涉足華盛頓事務,而輝達入局較晚?黃仁勳:或許是這樣。Ben:你從華盛頓的經歷中學到了什麼?最大的收穫是什麼?黃仁勳:令我驚訝的是,人工智慧末日論者在華盛頓的滲透程度之深,其言論對政策制定者的心理影響之大。Ben:所有人都陷入恐懼,而非保持樂觀。黃仁勳:沒錯,這存在兩個核心問題。在這場工業革命中,如果我們不讓技術在美國國內擴散,不自身充分利用技術,就會重蹈上一次工業革命中歐洲的覆轍—— 被時代拋棄。上一次工業革命的核心技術大多由歐洲發明,卻被美國充分利用。我希望我們能具備歷史智慧與技術認知,不被科幻式的末日論裹挾,這些虛構的極端言論嚇壞了對技術缺乏瞭解的政策制定者,毫無益處。最令我擔憂的是,美國民眾對人工智慧的支援度正在下降,這是一個嚴重的問題。這就如同上一次工業革命中,電力、電動機、內燃機的支援度下滑,網際網路也曾面臨類似情況。其他國家更快地利用了這些技術,推動技術在產業與社會中擴散,我們必須高度警惕,避免給人工智慧賦予神秘的科幻色彩,引發不必要的恐慌。我反對末日論者製造恐慌,真正的擔憂與警示,和通過煽動性言論製造恐懼有著本質區別。Ben:這類人的普遍特徵是,故作高深地剖析各種細節,卻忽視大眾傳播的核心是簡潔直白的表達。無法向民眾傳遞“適度擔憂而非過度恐慌” 的資訊,最終只會傳播恐懼,而非樂觀。黃仁勳:沒錯,而且這會讓他們顯得更“深刻”。Ben:人們都喜歡顯得自己有深度。黃仁勳:有時我們也發現,這有助於他們融資,或是實現監管俘獲。他們這麼做有各種動機,這些人都極為聰明,但我想提醒他們,這類行為大機率會引發反噬,終有一天他們會為此感到後悔。輝達的企業特質Ben:由於時間有限,我將幾個問題合併提問。在自動駕駛領域,你與多家汽車製造商合作,推出Alpamayo 模型,同時仍為特斯拉供應晶片。你今天的演講中重點介紹了 OpenClaw 技術 —— 此外,Vera 晶片的核心驅動力之一,就是Claude Code、OpenAI 程式碼模型這類智能體技術的發展。我是否可以從中總結出一個共性邏輯:你們會為領域內的頭部企業、創新者供應晶片,同時快速跟進其技術,為面臨競爭威脅的其他所有企業提供解決方案?這樣既能擴大客戶群體,不依賴頭部企業,又能借助頭部企業的技術影響力,推動產品向其他客戶銷售,因為後者擔心被行業淘汰。黃仁勳:並非如此。我們在眾多領域都處於前沿位置,在很多領域本身就是領導者,但我們從不將這些技術轉化為自有產品。我們專注於技術堆疊,必須保持技術領先,成為全球頂尖的技術堆疊提供商,但我們並非解決方案製造商,也不是服務供應商。這是第一點。Ben:這一定位會一直保持嗎?黃仁勳:是的,永遠不會改變。我們沒有理由改變,也樂於保持這一定位。我們研發所有技術,並向全行業開放。Ben:但有趣的是,以你們的板卡產品為例,如今一個機架裡有大約3 萬個特定庫存單位,越來越多的產品規格由你們定義,“這就是產品標準”,部分原因是為了簡化組裝等流程。軟體層面是否也會出現類似趨勢,尤其是在你提到的垂直領域與開源模型方面?黃仁勳:我們垂直整合技術,然後水平開放,讓所有客戶按需選用。Ben:只要客戶使用輝達晶片即可?黃仁勳:客戶可以自由選用任意模組,不必全部採用輝達晶片或軟體。我們必須垂直研發、整合、最佳化,但之後會開放原始碼,讓客戶自主選擇部署方式。Ben:考慮到Meta 等企業似乎已掉隊,而替代方案大多是中國模型,你認為輝達能否持續研發前沿模型,佔據市場地位,或是成為該領域不可或缺的參與者?黃仁勳:在模型領域取勝並非我們的目標。Ben:沒錯,不是為了競爭勝利,而是行業需要開源前沿模型,如果不是輝達,誰來承擔這一角色?黃仁勳:確實需要有人研發開源模型,而輝達具備這一實力。我們在研發開源模型的過程中,也能深入理解計算邏輯。Ben:Blackwell 架構是否遇到了相關問題?我聽說其訓練過程比以往更具挑戰性。黃仁勳:Blackwell 架構的核心挑戰 100% 來自 NVLink 72 技術,其研發難度極大。這也是我唯一一次在演講中感謝客戶與合作夥伴的支援。Ben:我注意到你今天說這句話時,語氣非常真誠。黃仁勳:是的,因為我們給所有人都帶來了挑戰,但現在大家都認可其價值。Ben:這是我們第二次面對面交流,上次在台北會面時,我的感受是輝達依然像一家小公司。你是否擔心業務佈局過於分散?還是說,你們依然依託CUDA 形成的飛輪效應 ——“看似業務繁多,實則重複執行同一核心邏輯”?黃仁勳:輝達能夠快速發展的原因,是我們始終擁有統一的企業發展理念,這是我的職責:確立核心發展理念,明確關鍵方向、業務關聯邏輯,然後打造高效的組織體系,落地這一理念。輝達的核心理念其實很簡單:一方面,我們擁有基於CUDA-X 的計算平台與軟體平台;另一方面,我們是計算系統公司,垂直最佳化產品,實現全端極致協同設計,將電腦系統整合為平台,接入所有雲服務商與原始裝置製造商,進而打造資料中心平台、人工智慧工廠平台。一旦確立了輝達的研發與落地核心理念—— 我這次主題演講也在向內部員工傳遞這一理念。Ben:確實有這種感覺。演講的第一個小時,彷彿你在對員工講話,重申公司的核心使命。黃仁勳:我們必須時刻牢記自身的核心價值。人工智慧固然重要,但CUDA-X、各類求解器以及我們能加速的所有應用,同樣至關重要。Ben:非常感謝你。黃仁勳:謝謝你,Ben。很高興見到你,繼續保持出色的工作。(火龍呼呼猫)
3/18盤後:股王信驊噴到 12,450 元了!台股天花板到底在哪?千金股大亂鬥開始了嗎?📊盤勢分析今日美股經歷震盪後最終小幅收高。早盤時段,受惠於油價短暫回落,市場對通膨的擔憂情緒略微舒緩,帶動主要指數全面開高。然而,隨著美國總統川普強硬表態美軍已重創伊朗軍事力量且無須盟國協助護航,加上布蘭特原油價格再度飆升並重返每桶 100 美元大關,市場避險情緒升溫,導致大盤自盤中高點回落。儘管如此,投資人仍延續了前一交易日的逢低買進動能,穩住了大盤底氣。此外,市場目前高度聚焦本週將登場的聯準會(Fed)利率決策,外界普遍預期,在中東戰火導致能源市場混亂的局勢下,聯準會本週高機率將維持利率政策按兵不動。盤面上資金流動呈現分歧,能源、非必需消費與通訊服務板塊表現最為亮眼,而醫療保健與公用事業等防禦型類股走勢則相對低迷。在關鍵個股方面,科技巨頭互有消長,蘋果上漲 0.56%、Alphabet 與亞馬遜皆上揚超過 1.6%;AI 領頭羊輝達(Nvidia)雖然由執行長黃仁勳親自釋出 AI 晶片至 2027 年商機將高達1 兆美元的重磅利多,但股價反彈未果,終場微跌 0.70%。另外,半導體族群中的記憶體大廠美光(Micron)表現極為強勢,股價大幅飆升 4.50%。即便面臨地緣政治與通膨變數,今日大盤依然順利收紅。道瓊工業指數上漲 0.10%,收在 46,993 點;標普 500 上漲0.25%,收在 6,716 點;那斯達克指數上揚 0.47%,收在 22,480 點;費城半導體指數勁揚 0.52%,收在 7,837 點。今日台股受到美伊地緣政治風險降溫與美股收紅的激勵,加上輝達(NVIDIA)GTC 大會釋出強勁的AI 前景展望,推升大盤上演一波量價齊揚的預期修復行情。加權指數今日呈現開高走高的強勢格局,在電子權值股領軍與市場資金大舉回流下,大盤一路過關斬將,盤中大漲超過 500 點,一舉重返 34,000 點大關之上。盤面結構上,資金出現極度集中的「強者恆強」馬太效應,電子股成交比重狂飆至約 85%,使 AI 與半導體相關供應鏈成為絕對的吸金焦點。其中,記憶體族群在美光(Micron)市值首破 5,000 億美元,以及高層預告供給短缺將一路延長至 2030 年的重磅利多點火下,爆發出強悍動能,威剛、宜鼎、旺宏等多檔個股強勢亮燈漲停。同時,先進封裝測試與設備族群也受惠台積電資本支出上修預期而群起上攻,千金高價股更成為人氣指標,股王信驊盤中狂飆至 12,450 元的新天價。然而,市場資金過度擁擠也引發嚴重的排擠效應,非電族群全面倒地;汽車類股因關稅衝擊重挫逾 2%,金融、航運與傳產等族群亦遭遇不小賣壓,盤勢呈現「電子狂歡、非電靠邊」的兩極化發展。加權指數上漲 1.51%,收在 34,348.58 點;櫃買指數上漲 2.61%,收在 329.4 點。權值股方面,台積電上漲 1.87%、鴻海下跌 0.94%、聯發科則維持平盤。🔮盤勢預估輝達GTC樂觀展望帶動,台積電重返1900元,加權指數續漲500點站回34000大關。台指期拉高結算,中東地緣風險淡化,但8成以上資金集中電子股短線過熱。盤面以高價股與記憶體族群最強勢,顯示內資大戶仍具信心,股王信驊與股后穎崴齊創歷史天價;記憶體受美光市值飆高激勵,旺宏、威剛與宜鼎強勢亮燈。台積電緩漲較有利中小型股行情,留意FED會議後市場熱錢流向。👨‍⚕️我是股科大夫 容逸燊每天三分鐘,幫你的持股把把脈!【YT直播】週二 20:00 盤中直播【訂閱股科大夫YT】https://bit.ly/dr_stockYT【官方LINE @】https://line.me/R/ti/p/@dr.stock【專人服務諮詢】0800-668-568IG: https://www.instagram.com/dr.stock0/Threads: https://www.threads.com/@dr.stock0每天不到一杯咖啡 訂閱專家的腦袋https://www.chifar.com.tw/subscription/drstock/
【GTC 2026】黃仁勳105分鐘對話實錄:兆美元這麼賺!談中國、H200、養蝦、Groq,炮轟DLSS 5批評者
到2027年,輝達有望收穫1.25兆美元訂單。智東西3月17日聖何塞現場報導,在昨日發表GTC主題演講後,今天,輝達創始人兼CEO黃仁勳與智東西等全球媒體進行了長達近2小時的深度交流,連續回答32問,並透露面向中國市場的H200 GPU重啟生產,已收到許多訂單。黃仁勳對昨日輝達GTC演講中的重磅發佈做了許多補充解讀,包括解釋說昨天撂出的重磅預言“到2027年收穫1兆美元訂單”,僅僅包含Blackwell和Vera Rubin兩條產品線,還沒算上獨立CPU、Groq、儲存及網路裝置。和全球媒體溝通過程中,黃仁勳也展示了自己頗有“活人感”的幾個側面。當知名汽車媒體Motor Trend在現場宣佈黃仁勳為年度人物時,他顯得十分開心,不僅揚言要“站在這裡直到再多拿幾個獎”,還幽默地向全場“懺悔”,笑稱自己其實已經兩年沒摸過方向盤,全靠自動駕駛代步,言語間難掩驕傲與笑意。而當採訪突然被一陣突兀的手機鈴聲打斷時,他毫不客氣地中斷了回答,當場“抓包”並拋出自己的鐵律:“開會時所有手機必須靜音,不振動、不響鈴,徹底靜音,這點輝達人人都知道。”他甚至在台上靜靜等候對方處理完畢,半開玩笑半認真地說到:“我在等你呢。”將他對身邊一切的絕對掌控感與不加掩飾的真性情,展露得淋漓盡致。以下是黃仁勳GTC採訪的核心內容:1、200億美元收購Groq:Groq之於輝達,就如同Mellanox之於輝達。Groq的LPU並非為了替代現有產品,與Vera Rubin結合後才能應對新興的推理細分市場。2、Vera CPU:這些CPU與傳統x86 CPU截然不同,未必適用於所有場景,其核心價值在於用10億美元的CPU,支撐500億美元的GPU跑滿性能。3、儲存晶片:輝達目前擁有資料中心中唯一一個同時針對HBM、LPDDR、SRAM三種儲存技術進行最佳化的架構,他們還在與每一家記憶體廠商合作。4、AI不會殺死SaaS:以EDA軟體為例,AI並非從零開始憑空生成電晶體,輝達工程師也不是像在用Nano Banana生圖一樣設計晶片,而是一層一層地精確建構。5、AI安全:用科幻小說式的AI敘事去恐嚇所有人是一種傲慢和自大。AI智能體系統像“白細胞”一樣參與網路安全,當入侵者來襲時可以立即響應並蜂擁而至,展開反擊。6、OpenClaw爆火:OpenClaw是後推理時代AI的轉折點,“市場對一個精心設計的開源智能體系統,存在著真正且長期被壓抑的迫切需求”。7、H200進入中國:“輝達已獲得向中國眾多客戶銷售H200的許可證,也已經收到了來自眾多客戶的採購訂單,正處於恢復生產的過程之中。”8、1兆美元營收:此前預測的至2027年1兆美元營收,僅僅包含了Blackwell和Vera Rubin兩條產品線。如果加上獨立CPU、Groq、儲存以及網路裝置,規模可能會達到1.25兆美元。9、投資背後邏輯:輝達只向那些他們相信會成功的公司提供融資,瞄準的是“下一個Google”、“下一個Meta”、“下一個亞馬遜”。其本質是在投資生態,這是極佳的投資標的。10、如何理解輝達:輝達40%的業務任何雲服務商都無法獨立覆蓋,剩下60%是雲業務,其中40%~50%的需求由輝達創造,比如沒有輝達甲骨文就沒法服務OpenAI,最後才是雲服務商自身的需求。11、DLSS 5爭議:對DLSS 5的批評完全錯誤,開發者依然可以對生成效果進行微調。一切主動權都在開發者手中。輝達在創造的是技術,而非藝術。12、機器人:推理能力的突破和VLA(視覺-語言-動作)模型的應用,已經給機器人的認知問題提供解決方案。剩下的主要是工程最佳化,未來三年內機器人技術將迎來重大突破。13、自動駕駛:輝達自動駕駛業務目前約佔總營收的1%,但輝達最初做的幾乎每一件事,比如CUDA、可程式設計著色器、光追都耗費了大量資金,卻毫無回報,甚至引來不少質疑。必須堅信自己所相信的,然後決定是否值得繼續追求。14、AI時代的職場與人類未來:AI不會導致大規模失業,人類反而會更忙。關於人類,唯一可以確定的是:我們如今允許自己打開想像力去解決的問題,比四年前多出了百萬倍。15、黃仁勳分享“人生三訣”:別被開除,別無聊,別死。對人如此,對公司也一樣。以下是採訪的完整實錄:Q1:輝達花了創紀錄的200億美元收購了Groq,這是你們歷史上最大的一筆交易。因為Groq的LPU解決了你們GPU在規模化即時推理上的問題。這是否意味著業內已經認識到AI的重心已經從訓練轉向推理了?黃仁勳:首先,你面前站著的是“推理之王”。我可以這麼說,(因為)有人曾封我為“推理之王”。2025年,我們決定將巨額資源投入到推理領域。在2024年底2025年初,我們推出了NVLink 72系統,推出了NVFP4(輝達Blackwell GPU架構引入的4位浮點格式),在此之前還推出了Dynamo(輝達的開源、低延遲、模組化推理框架)。Dynamo幾乎提前兩年詮釋了我昨天才公佈的完整戰略。在那之前,我們就已經知道推理在NVLink 72上表現完美,這就是NVLink 72如此重要的原因。35倍的性能提升,成本只有原來的1/50。或者說每瓦性能提升了50倍,成本只有原來的1/35。因此,我們目前是成本最低的token生產商,也是AI工廠中吞吐量最高的token生產商。這一切,都歸功於NVFP4、NVLink 72與Dynamo的協同作用。隨著市場持續演進,我昨天提出的核心概念之一就是:並非每個token都是等價的——每個token可能由小型模型、較大模型或超大型模型生成,對應的輸入上下文長度也從極短到極長不等。在每個細分領域,AI都在變得越來越智能。AI發展初期,ChatGPT只有一個服務層級——免費檔,隨後推出了每月20美元的付費檔,o1和o3問世後,又新增了更高的服務層級。這些層級本質上就是產品的細分市場在不斷擴大,催生了差異化需求。現在有開發者在使用AI智能體,比如Claude Code和Codex,它們極具實用價值,由此形成了又一個新的服務層級。這和輝達當年只有RIVA 128一款產品的起步階段並無二致。如今我們擁有RTX 5090、5080、5070、5060……各類產品一應俱全。就如同iPhone現在擁有眾多不同版本,覆蓋不同層級——因為客戶群體各異,需求不同,價格定位也不同。我們一直在沿著這一產品譜系全面拓展佈局。就目前token的主流消耗場景而言,現有的Grace Blackwell以及即將到來的Vera Rubin,其性能都無可匹敵,Groq的加入不會改變這一格局。然而,我們判斷一個新興細分市場正在形成——該市場要求模型同時滿足三個條件:模型體量大、上下文長度長,以及推理延遲極低,也就是響應速度極快。Groq可以兌現上述三項承諾中的一項,但無法同時滿足全部三項。將Vera Rubin與Groq結合,我們便能同時實現這三項承諾,由此開闢出一個新的細分市場:大模型+長上下文+超快token生成速率。這正是我們所設想的市場細分方向,也是引入Groq的戰略意圖。我依然認為,在一座算力工廠的配置中,75%仍將是純Vera Rubin部署;另有25%將是Vera Rubin與Groq的組合部署。Vera Rubin仍將是核心。它實在太強了——我們自己都不知道如何超越Vera Rubin,否則我們早就造出能勝過它的產品了。Grace Blackwell是當下的推理之王;明日,Vera Rubin將接過這一王冠。不久的將來,Grace Blackwell終將成為歷史,而Vera Rubin,乃至未來更新的版本,將登頂推理算力之巔。我希望Groq之於輝達,就如同Mellanox之於輝達一樣,是一次架構層面的重要補充。我們建構的不是一塊GPU,而是一座AI工廠。Q2:輝達越來越多地被要求為客戶的資料中心建設提供融資支援。請問這類融資安排的具體形式是怎樣的?輝達又將如何管理其中的風險?黃仁勳:我們只向那些我們相信會成功的公司提供融資。我們投資了CoreWeave、Nscale和Nebius,我認為我們完全可以承認,這些都是全壘打等級的投資。我們之所以有把握認定這些是必勝之局,是因為我們已經看到了流向它們的業務。從很多層面來說,我們掌握著先手資訊。我們通過幫助它們更快、更大規模地擴張來投資整個生態系統。由於我們清晰地看到了它們面前的業務與機遇,風險實際上極低。這對於流向它們的算力需求來說,也是一種極大的服務價值。如大家所知,其中一些客戶就是Meta、Azure、Anthropic等巨頭。我們並非在為所有龐大的市場需求尋找產能,而是通過相關投資切實幫助到每一方。因此,我們以“超級助推器”的角色參與其中。即便沒有我們,他們也能完成融資,但這對我們而言是融入整個生態系統的絕佳方式,坦率地說,迄今為止也是一項非常出色的投資。Q3:隨著OpenClaw和NemoClaw的推出,那類問題是您個人最期待這些工具幫助大家解決的,或者是以前難以實現的任務?黃仁勳:我最期待的是,自動駕駛汽車無需積累數十億英里的訓練里程就能實現安全行駛。如今,我們擁有具備推理能力的AI,使汽車能夠對某一特定場景進行真正意義上的推理,並將其分解為一系列相對平常的子場景。一個複雜的駕駛場景,其實往往是你曾經經歷過的情況的變體,只是把某個球換成了別的物體,把一隻貓換成了一條狗,把一個行人換成了一位騎行者。本質上都是同類場景的分解重組。採用同一推理技術的智能汽車,將帶動機器人技術在未來幾年內實現超高速演進。由於推理系統的突破,物理AI將迎來令人驚嘆的加速發展。具備推理能力的蛋白質生成技術將能夠生成更多基於物理結構的蛋白質,這些蛋白質更具現實可行性、更易於合成,毒性也更低。因為AI能夠對所有這些特性進行推理。這在短短幾年前還是完全不可能實現的。我認為,o1,即OpenAI o1,是推理系統發展史上真正的重要拐點,OpenAI在這一領域的工作理應獲得高度的認可。OpenClaw是後推理時代AI的轉折點。如果說ChatGPT將生成式AI帶給了世界,那o1則將推理系統帶給了世界。Claude Code長期以來主要面向企業級應用,因此大多數人尚未真正體驗過智能體系統——除了我們這些身處軟體開發行業的人。我們正在盡情享受這項技術帶來的紅利,公司所有的軟體工程師如今都有智能體協同工作。但這種體驗僅限於企業內部,侷限於科技行業,尚未向大眾開放。突然之間,OpenClaw橫空出世。我們終於擁有了一個真正架構精良的開源智能體系統。它面臨的唯一挑戰是安全性——安全並非唯一的難題,但確實是一個極其嚴峻的問題。安全、治理、隱私,以及所有與規範化智能體系統相關的特性,都是亟待解決的關鍵議題。我們可以與Peter(OpenClaw創始人)合作,將這些功能整合進OpenClaw。同時,我們還通過一系列執行階段和參考設計來完善OpenClaw,使其即使採用開放模型,也能幫助企業實現極致性能。我們稱之為NemoClaw。NemoClaw本質上就是OpenClaw,外加大量深度整合的輝達技術——基本上是一份經過輝達最佳化、專為企業級場景打磨的OpenClaw藍圖。如今只需一行程式碼、一鍵安裝,每個人都能獲得一個強大的智能引擎。我認為這完全是革命性的突破。回過頭來看,OpenClaw在短短幾周內就成為史上最受歡迎的開放原始碼專案之一,而Linux可是花了30年才達到今天的地位——這是一項非常非凡的成就。它表明全球對此抱有極大的興趣,也揭示了對一個精心設計的開源智能體系統存在著真正潛在且長期被壓抑的迫切需求。現在,每個人都可以制定自己的智能體戰略了。這意義重大,我感到非常興奮。Q4:昨天DLSS 5發佈了,遊戲社區中有些相當強烈的反對聲音,認為這項技術讓許多遊戲看起來更糟糕、千篇一律,或者只能在視訊中觀看。你對這種批評怎麼看?黃仁勳:首先,他們完全錯了。原因在於,我已經詳細解釋過了,DLSS 5將幾何形狀、紋理等遊戲元素的可控性與生成式AI相結合。開發者依然可以對生成式AI進行微調,使其符合自身的藝術風格。一切主動權都在開發者手中。我們創造的是技術,而非藝術。DLSS 5以幾何體資訊為控制基礎,以遊戲的真實渲染結果(Ground Truth)為條件約束,在其上疊加並增強了生成式能力,但並不影響藝術家的控制權。它不是幀等級的後處理,而是幾何等級的生成控制。生成的所有內容遊戲開發者都可以微調。我們展示這項技術,是為了讓開發者看看它能做什麼。如果開發者想讓它變成卡通風格、色調分離,或者玻璃質感,或者任何風格,都能做出來。這些都直接由遊戲開發者控制。這與純粹的生成式AI截然不同。這是內容受控的生成式AI。這正是我們將其命名為神經渲染的原因。Q5:您談到了Groq,並表示不會出現市場蠶食效應。但既然我們擁有了這些新產品,是否會形成不同的收入流,讓我們對那個“1兆美元+”的數字有更清晰的瞭解?第二個問題是關於股票回購的。黃仁勳:這1兆美元,是我們目前基於2027年前的採購訂單所能看見,並對之充滿信心的數字,且僅涵蓋Blackwell和Vera Rubin兩條產品線。問題在於,為何我只納入這兩項。儘管輝達現在還銷售獨立CPU,那將是一項數十億美元規模的業務。Groq自身業務可能翻倍,因此,對於一個1GW的資料中心,Groq可將輝達的整體收益提升約25%。因此,從理論上說,非實際數字,僅為理論推演,這1兆美元有望達到1.25兆美元。我同樣未將儲存系統納入計算。如大家所知,KV Cache的規模已極為龐大,AI使用儲存系統的速度遠超人類,因此儲存系統的性能必須大幅提升。這正是我們推進STX儲存機架等項目的原因所在,一切都是為了徹底重構面向AI的儲存系統。戴爾展示了整合輝達全套技術的AI資料平台,整個儲存行業都將跟隨我們的方向演進。為什麼我只使用Blackwell和Vera Rubin的營收資料?原因非常簡單:去年在GTC上,我曾預測Blackwell加Vera Rubin到2026年的規模為5000億美元。若將1兆的口徑調整為包含CPU、Groq和儲存,則無法與此前的5000億美元作橫向對比。然而,這對外界理解這1兆美元製造了混亂——因為輝達今天已提供遠比以前更多的產品,大家不禁會問:這是否意味著Blackwell加Vera Rubin不到1兆?恰恰相反,實際數字只會更高。1兆美元,僅僅代表Blackwell加Vera Rubin,僅統計至2027年。不含獨立CPU,不含Groq,不含儲存,不含BlueField DPU,不含Vera Rubin Ultra,不含Feynman,不含Feynman Next,一律不包含,僅限Blackwell加Vera Rubin。而距離2027年底還有21個月,這意味著最終數字大機率將超過1兆美元。好的,第二個問題,我們顯然正在產生規模極為龐大的自由現金流。與此同時,輝達的增長也非常之快,增速本身在加快,而不僅僅是絕對數字在增長。上個季度是我們有史以來營收規模最大的季度,同時我要強調,增速也仍在加快。因為我前面所闡述的一切業務,這種雙重增長得以實現,我們將產生大量現金流。這些現金首先是支撐業務增長的必要資本。我們有大量供應商和合作夥伴,採購、產能保障、庫存鎖定,這一切都需要資金,這是第一優先順序的資本用途。第二,我們投資生態系統。生態系統是極佳的投資標的,坦率說,我認為這就是計算產業的未來。我們正在投資“下一個Google”、“下一個Meta”、“下一個亞馬遜”。圍繞CUDA建構的生態系統是我們的第二項核心工作,即便如此仍能保留充裕的自由現金流。我們在上次會議中表示,計畫在本財年通過回購和分紅的方式向股東返還50%的自由現金流。也就是說,2026財年的股東回報將達到自由現金流的50%。去年的自由現金流規模不及今年,分配比例大約是40%左右。今年,在更大的基數之上,我們將進一步提高分配比例。因此,答案是——這將會是一個非常可觀的數字。關於具體的收入流,我認為這並不是我們的運作方式。原因在於:NVLink交換機只搭配輝達的計算產品使用,Spectrum-X也是專門針對特定場景設計的,總體而言有其內在邏輯,但我可以換一個維度來拆解。我在主題演講中已經談到這一點。大多數人忘記了,輝達的業務遠比一家晶片公司多元化得多。原因在於我們是全端公司,能夠幫助各方在任何地點建構AI工廠。戴爾之所以表現得如此出色,是因為他們對此立場清晰、態度坦誠,輝達AI工廠正在全球各地加速落地建設,增速持續加快。我們也在不同國家的園區建設AI工廠。除非你能交付完整的AI工廠,否則這些客戶不會購買晶片,他們沒有軟體能力,你必須是一家全端公司才能服務他們。▲輝達在採訪現場展示全系列產品因此,我們約40%的業務,無論是企業、工業、物理AI、自動駕駛、機器人,還是各地區的NCP部署,或者主權AI,這些場景,任何雲服務商都無法獨立覆蓋。這些客戶購買的不是晶片,而是平台。我們40%的業務規模相當可觀,且完全不屬於雲業務。第二部分是雲業務。其中一部分是我們直接銷售給雲服務商的,但另一部分,他們對我們來說本質上相當於戴爾的角色,也就是說,終端客戶是通過雲平台使用我們的產品。我們為他們帶來了客戶,因為這些客戶是CUDA開發者。舉個例子,如果沒有輝達,OCI(Oracle雲基礎設施)如何能服務OpenAI?OpenAI的整個技術堆疊都建構於此。正是我們將OpenAI引入了OCI。類似的例子還有很多,如果不是因為Anthropic今年將全面建構於輝達之上,我們又怎能將Anthropic引入Azure?這將形成一個極其龐大的生態基礎。能理解嗎?因此,我們在CSP(雲服務提供商)中的很大一部分業務,實際上是由輝達主動創造的。所有CSP對此心知肚明。我們與他們建立了深度的行銷合作關係和業務合作關係,由輝達為他們引流客戶。我昨天展示了大量案例。我們40%的業務,純晶片公司無法服務,雲服務商也無法獨立服務。剩餘60%的業務中,大約40%~50%實際上是輝達主動創造的業務,其餘才是雲服務商自身的內部消耗需求。Q6:我們是不是已經迎來拐點,到達了機器人領域的ChatGPT時刻?請問在您看來,人類與能力出眾的機器人之間,最難攻克的未解難題是什麼?黃仁勳:如果你只是列出當今機器人存在的問題,那清單會相當長,但它們都只是工程問題。事實上,你能看到它們四處走動。(突然有手機鈴聲響起,黃仁勳回答被打斷)黃仁勳:是誰的手機?我沒有太多忌諱,但有一條——開會時所有手機必須靜音。每一位輝達員工都清楚這一點:不振動、不響鈴,徹底靜音。我在等你呢。(等了一會兒後繼續)這些機器人已經開始能夠完成一些任務。一旦一項技術的可行性得到驗證,最佳化往往不超過五年。因此我非常確信,三年之內,你將看到能力極為出色的機器人。由於我們已同步攻克了認知AI,也就是AI認知領域的OpenClaw。OpenClaw在機器人內部運行,這一設想已經相當顯而易見。此外還有VLA(視覺-語言-動作)模型,負責控制機器人的運動與關節協調。儘管仍有諸多挑戰,但系統一與系統二的AI問題,正在被即時解決。因此,我認為三年內,你將見證真正意義上的重大突破。Q7:正如您所說,1兆美元是完全可能實現的,同時也對製造產能提出了巨大需求。結合台積電、三星等廠商的現狀,您如何看待未來五年全球半導體製造產能的前景?黃仁勳:我們將需要大量的製造產能,且不會大量使用ASIC專用晶片。我們是目前資料中心中唯一一個同時針對三種儲存技術進行最佳化的架構:HBM、LPDDR、SRAM。目前,其他資料中心CPU均採用DDR記憶體,但其頻寬能效相當低下。輝達率先在Grace CPU中引入了LPDDR4,這是一次革命性的突破。我認為再過幾年,業界都將跟進。大家現在都意識到這是一個多麼正確的決策。Vera CPU採用LPDDR5,Rosa CPU採用LPDDR6。我們現在擁有完善的LPDDR技術路線圖。AI運行需要大量記憶體,它必須依靠短期記憶、工作記憶和長期記憶來思考。因此,記憶體是AI體系中極其重要的組成部分。當然,互連同樣關鍵。我們在縱向擴展(Scale-up)和橫向擴展(Scale-out)兩個維度同步推進,系統規模持續擴大,需要大量產能支撐。世界仍在學習這樣一個概念:傳統意義上,電腦主要用於資料錄入和資料檢索。大家注意,人類通過鍵盤輸入。這是使用電腦的舊方式。未來,電腦實際上是一台“製造機”:一個token生產系統,而當前全球專用於token生產的電腦規模極為有限。之所以如此有限,是因為迄今為止我們出貨的大多數系統仍被用於訓練。如今,推理的拐點已經到來,OpenClaw橫空出世,智能體系統正在各處廣泛應用。用於推理的token生產規模才剛剛起步。我們究竟需要多少算力投資?我認為需要數兆美元量級的產能。因此,我認為晶圓代工廠將會極度繁忙。我們很榮幸與台積電合作,毫無疑問,這是世界上最頂尖的代工廠。我們還與三星合作。由於我們對記憶體的消耗量極大,我們與每一家記憶體廠商合作,並將與每一家連接器廠商、每一家矽光子公司攜手共進。Q8:AI的應用場景可以說不計其數,我們甚至還未能全部預見。但有一個話題直到最近才真正引發深入討論:我們不希望AI做什麼?我很好奇——在您看來,有那些領域是AI不應進入的,甚至是永遠不應涉足的?黃仁勳:自主能力總會有一個範圍。我的電飯煲在某種程度上是自主的,今天的無人機在某種程度上也是自主的。面對這些事物的範圍,我們需對所追求的功能本身保持更多審慎與反思。AI不應該違法。AI不應該承諾提供它沒有的功能。例如,如果一輛車說它能以65英里每小時的速度安全駕駛,我們希望它不會在50英里時就爆炸。這些都是人類在長期實踐中總結出的極具常識性的準則。至於其他方面,我認為我們應當持續學習,對自己的認知邊界保持更多謙遜。用科幻小說式的AI敘事去恐嚇所有人,在我看來是一種傲慢,過於自大了。我更傾向於在探索中前行,而非以恐懼驅動他人。提醒人們是一回事。嚇唬人們是完全不同的事。在劇院裡有些話不能說,在飛機上也有些話不能說。人類的判斷力會告訴我們,"提醒"與"恐嚇"之間存在本質區別。我有我自己的觀點,但最終分析下來,我們需要AI為我們做很多偉大的事情。例如,我們需要AI智能體系統參與網路安全。我們希望企業被“白細胞”所守護,以防有入侵者。網路安全智能體可以立即響應並蜂擁而至,攻擊入侵者,就像白細胞一樣。任何其他分析AI和網路安全的方式對我來說都不合邏輯,因為未來,網路安全威脅的演變越來越快,我需要超高速的AI智能體來保護我。我認為這是一個完美的例子,沒有人不想要白細胞。白細胞本質上是攻擊性細胞,它們主動出擊,那是好事。讓我們保持安全。Q9:我們正在進入一個3D模擬世界。我剛剛體驗了輝達的模擬器演示,你認為這個3D模擬世界未來幾年會如何發展?黃仁勳:剛才那位朋友問了我一個相反的問題:DLSS 5是用生成式AI來增強3D圖形的,而你看到的另一個例子——Cosmos——則是用電腦圖形去控制生成式AI。歸根結底,一切都在於“控制”。我們希望AI是“有根基”的。我們提出“檢索增強生成”(RAG,Retrieval Augmented Generation)的一個重要原因,就是要讓生成建立在真實基礎之上:你提供一些文字或資料,AI再基於這些真實資訊去生成內容。昨天我也提到,在AI的世界裡,我們是否需要記錄系統?是否需要SQL?答案是:絕對需要。因為SQL所代表的,是記錄系統,是我們業務中最真實、最可靠的資料基礎。而這些真實基礎,正是用來“約束”和“支撐”生成的。否則,生成出來的就只是幻覺。你剛才看到的那個虛擬駕駛體驗之所以真實,是因為我們用3D條件對它進行了約束——用各種必要的條件去“錨定”它,從而實現高保真的體驗。在這種框架下,你可以生成任何內容,而且可以用文字、圖像、3D等多種方式去控制它,其餘的部分則由AI生成。所以未來的發展方向,要麼是完全結構化的生成,要麼是由真實世界資料來控制的生成。這就是未來。你會不會在你的眼鏡裡體驗到這樣的東西?答案當然是會的。在眼鏡已經能看到真實世界的存在。如果我再用生成式AI去增強這個基礎,就可以創造出更豐富的體驗。Q10:您展示了Vera獨立機架的部署形態。隨著AI需求的持續增長,這些CPU的適用場景越來越清晰。您是否認為它們最終將承擔x86架構在資料中心中傳統承擔的角色?這是否是一個數十億美元等級的市場機會?黃仁勳:這些CPU是為資料密集型工作負載而設計的。它們針對的是高單線程性能需求,同時也面向電力受限的資料中心環境。在這種場景下,它們的每瓦性能可以實現2倍提升。目前市場上沒有其他CPU能做到這一點——除了Vera和Grace。在電力受限的資料中心中,實際上,所有採用輝達產品的資料中心基本都是電力受限的,因為一旦你擁有兆瓦級的電力,你會希望儘可能把電力用在GPU上,而不是浪費在CPU上。原因很簡單:GPU在生成token、創造價值,而CPU並不是主要的價值生產者。因此,如果可以,你會希望把絕大部分電力預算分配給GPU。當然,我們仍然需要CPU,但我們要讓它們極其節能。這也是為什麼我們使用LPDDR記憶體。同時,我們的CPU在單線程性能、頻寬效率方面都處於全球領先水平,頻寬甚至達其他方案的三倍。之所以把頻寬做得這麼高,是因為我們需要處理海量資料的移動。因此,我們設計了Vera、Grace等CPU,它們是專門為AI時代打造的。它們適用於所有場景嗎?未必。比如“每美元性能”可能不是最優,但那並不是我們要解決的問題。舉個例子,在過去十年的超大規模資料中心中,CPU設計的核心目標是最大化每顆晶片的核心數量。因為在雲端運算模式下,使用者是按“核心數”租用資源的。所以,對於雲廠商來說,“每美元核心數最多”的CPU就是贏家。但AI不一樣。AI關注的是“完成多少工作”,而不是“有多少核心”。如果你有價值500億美元的GPU在那裡運行,你絕不會讓它們因為CPU處理不過來而閒置,這些CPU可能就價值10億美元。你需要的是讓CPU盡快完成任務,讓500億美元GPU持續高效運轉。所以,我們的最佳化方向完全不同。我們打造出了一種截然不同的CPU架構。我們始終從“要完成什麼工作”出發來設計系統。一旦這一判斷最終變成顯示,我們就建構出最合適的整體系統。無論是Vera、Rubin,還是儲存、CPU、網路、甚至整個機架,都是圍繞我昨天提到的那類工作負載來設計的,也就是智能體。事實上,OpenClaw就是一個很好的例子。在資料中心中運行OpenClaw,配合Vera Rubin整套系統,是非常理想的組合。所以,我想這應該回答了你的問題。Q11:看起來Feynman將採用某種3D堆疊工藝。請問您能否介紹一下主Die、IO Die)以及先進封裝技術的規劃方向?供應鏈穩健性是否也在你們的考量之內?黃仁勳:供應鏈的彈性、多樣性總是影響我們的業務,因為我們規模很大。然而,如果我告訴你,那明年參加GTC還有什麼意義?到時候就只剩你和我,兩個人。Q12:你昨天介紹了LPU的整合,OpenClaw的出現似乎真的讓您眼前一亮。OpenClaw如何改變了你的日常生活?如何改變了輝達的戰略?黃仁勳:當OpenClaw出現,我們意識到世界終於擁有了一個開源智能體——我們現在幾乎可以將其當作一個行業標準。我們希望儘可能多地向這個開放原始碼專案貢獻能力,避免世界因此分裂成太多互不相容的分支項目。如果我們能將這個主項目打磨得足夠優秀,全球每家公司都能以此為起點,建構自己的智能體戰略。OpenClaw之所以意義重大,關鍵就在於它是開放原始碼的。它已經非常強大,工程質量相當成熟。我們將在未來30年間持續為其注入能力,就像我們持續向Linux和Kubernetes貢獻程式碼一樣。試想一下,全世界都有了一個可以共同貢獻的平台。想像OpenClaw未來將變得多麼強大。OpenClaw只需一行命令就能安裝。安裝完成後,你告訴它你想讓它成為什麼。比如你說:我希望你學習這個新工具。它便去閱讀使用手冊,可能是Skill文件,然後上網搜尋它需要學習的內容,自行摸索如何使用。你給它一個最終目標:我想設計一個廚房,我的廚房現在是這個樣子,這是我希望它未來呈現的效果。去下載相關軟體,去學習這些應用,找到使用它們的方式。如果需要訂閱某個服務,只要不超過這個金額,你有我的授權去訂閱。然後幫我設計廚房,找到合適的家具,給我幾個家具示例和報價,幫我做平面佈局,渲染給我看。我剛剛這通指令,就是給了它一個它能夠完成的項目,然後它便獨立出發,學習、呼叫工具,反覆嘗試。它生成第一版廚房設計,與你給它的參考圖片進行比對,然後判斷:“差得有點遠,繼續改。”於是一遍又一遍,直到完成後返回給你。第一次完成後,你給它一些額外指導,它再次回來。完成後,它便學會了這項技能——它學會了如何做室內設計。於是,它將自己的學習成果總結成一份技能文件,存入記憶。下次你說“幫我設計客廳”,它便回想起:“原來設計房間是這麼回事。”它會表現得更好。你再次給它指導,它再次更新自己的技能文件。下一次你說我要設計臥室“,你能看到,它完全是在執行同樣的過程:拆解任務,呼叫工具,運用記憶。這真的相當了不起。輝達如今的運轉速度比以往任何時候都快,但這是因為我們越來越多地使用AI,工作完成得更快了。所有項目的推進速度都在提升,這都是好事。說實話,我感覺自己越來越忙了。我今天與輝達的工作體驗是:它讓我比以往任何時候都更忙——比六個月前更忙。原因就在於工作成果反饋得更快了,項目數量也增長得更快了。我認為這是所有人共同的體驗。很多人說AI來了,我們會失去工作。恰恰相反。事實是:PC讓我們更忙了,網際網路讓我們更忙了,移動裝置讓我們更忙了。AI將以超快的速度完成任務。你寫一份規格說明、一份架構文件、一份產品定義,交給智能體,30分鐘後,它又回到你的案頭了。過去,你寫完產品規格說明,團隊拿去工作一個月。那個月裡,你在做別的事情,生活節奏相當從容。如今,那一個月已經壓縮成了30分鐘,你隨時都在關鍵路徑上。這位朋友的工作並沒有消失,只是感覺更忙了。我的判斷是:AI將使我們以如此之快的速度推進工作,以至於我們最終會承擔更多的工作量。Q13:在AI算力市場中,Vera Rubin帶來的需求有多少是新增量,又有多少是超大規模雲服務商對Blackwell的升級替換?黃仁勳:這個問題的答案,最終取決於我們所處的產品設計周期與建設周期的那個階段。這就好比iPhone 3發佈時,iPhone 3的銷量中有多少蠶食了iPhone 1的市場,又有多少是新增銷售?事實上,iPhone 3銷量的99.9%都是新增銷售。iPhone 4發佈時同樣如此,99.9%是新增,而非替換。直到大約十年之後,這種格局才開始發生變化。一項技術擴散到全世界,大約需要十年左右。如今大約每四年就會迎來一輪新的資本支出周期。我的判斷是:我們目前處於輝達推理拐點的第一年,這是十年來推理領域真正意義上的第一個拐點年。十年之後,市場可能趨於飽和。而Vera Rubin是拐點的第二年,新增需求的比例同樣會達到99%。Q14:請問您能否更新一下輝達在中國資料中心業務的信心水平,以及這些出色的產品未來能否在中國市場重新建立有實質意義的存在?黃仁勳:我能夠回答的是:我們已經獲得了向中國眾多客戶銷售H200的許可證,也已經收到了來自眾多客戶的採購訂單,目前正處於恢復生產的過程之中。這對大家來說是新消息,與兩周前的情況已有所不同,這是我們當前的實際狀態,供應鏈也正在重新啟動。大家很快就會開始聽到相關消息。其次,我認為川普總統的意圖是:美國應當在獲取輝達最先進技術方面保持領導地位,但他同時也希望我們能夠在全球範圍內參與競爭,而不是不必要地拱手相讓那些市場。綜合我剛才說的三點——H200許可證、客戶採購訂單,以及他所表明的相當直接的意圖,我有充分理由相信他的立場始終如一。Q15:我很想進一步瞭解您在開源模型方面的願景。我個人認為開源AI是現有體系的重要補充。請問輝達推進開放原始碼的驅動力,究竟更多來自生態系統擴張、客戶基礎延伸,還是戰略層面的考量?Nemotron的路線圖是否會長期堅持下去?黃仁勳:我們已經發佈了GR00T 1、GR00T 2,Cosmos 1和2也已發佈,Nemotron 1、2、3均已推出,Nemotron 4我們已啟動聯合開發。之所以要對模型進行編號,是因為你有持續推進的意圖。就像CUDA,我們現在已經到了CUDA 13。這本身就回答了這個問題——我們絕對有意願持續推進前沿附近的基礎模型研發。我們未必要做到絕對前沿。那並非我們的使命。我們的使命有幾個層面:我們希望為世界打造可信賴的開源模型,以輝達的體量和能力,確保每年穩定迭代,讓所有人都知道,你們可以信賴我們。說到做到。另一個原因是:我們自己在開發模型的過程中,可以針對新一代晶片和系統架構對模型架構進行深度最佳化。這是其他團隊未必能做到的。舉個例子,如果沒有TensorRT-LLM,我們就無法探索NVLink 72的性能極限;如果沒有Dynamo,我們就無法探索解耦推理的邊界,也就不會有後來收購Groq團隊的決策。擁有自己的軟體團隊,保持工業級、前沿水準的軟體能力,使我們能夠在整個系統層面持續創新,軟體與硬體相互成就,形成正循環。我們對開源模型生態系統的投入是堅定的。Q16:輝達自動駕駛業務目前約佔公司總營收的1%。您認為,決定自動駕駛業務能否對輝達財務業績產生實質性影響,最關鍵的挑戰是什麼?黃仁勳:這個問題對我來說意義特別深刻。輝達的CUDA業務曾經佔總營收的0%,卻佔據了我們90%的成本。任何理性的人都會放棄,但如果我們真的放棄了,在座各位今天就不會出現在這個房間裡。25年前,我們首次推出可程式設計著色器時,沒有人知道如何使用,沒有人願意為此付費,沒有任何評測機構認為這是個好主意。如果我們當時放棄了,可程式設計著色就不會有今天。8年前,我宣佈推出RTX光線追蹤時,所有人都認為這是個笑話,說光線追蹤一塌糊塗。如果我們沒有RTX,今天的全場景路徑追蹤電腦圖形學也不會有今天。事實證明,我們最初做的幾乎每一件事,都耗費了大量資金,卻毫無回報,甚至引來不少質疑。因此,你必須堅信自己所相信的,然後決定是否值得繼續追求。10年前,我開始投入自動駕駛。最初的團隊只有我和另外一個人。我們踏上了這段探索之旅,試圖弄清楚自動駕駛的技術難題究竟是什麼。如今,我們有數千人在從事自動駕駛相關工作。你說它只佔1%,但請記住,輝達的自動駕駛業務實際上涵蓋三台電腦:訓練系統、合成資料生成與模擬系統,以及自動駕駛車載系統本身。只有最後一部分被我們歸類為自動駕駛業務,但因為我們深耕這個領域,整體業務規模遠比大家認為的要大。特斯拉購買輝達系統用於訓練,Wayve以及全球每一家正在研發自動駕駛的公司,無論是卡車、面包車、乘用車還是無人計程車,都在向我們採購這三台電腦中的一台或全部。這個規模相當可觀。但即便業務規模為零,我也會繼續推進。為什麼我如此確信自動駕駛一定會實現?因為我完全相信,自動駕駛在技術層面已經是一個被解決的問題。我們花了10年才走到這一步,但它確實已經被解決了,剩下的只是工程層面的持續打磨。10年之後的某一天,全球每天1兆英里的行駛里程將實現100%或接近100%的自動駕駛。今天,這一數字之所以有限,唯一的約束就是司機座位上的人,也就是駕駛仍需要人的參與。如果沒有這個約束,全球每天的行駛里程一定會大幅增長。假設每天有2兆英里,再乘以每英里若干美元,這將是一個數兆美元量級的市場。大多數數兆美元量級的市場,在某個時間點都是從零開始的。所以我完全接受它現在還在零附近,我的信念不會改變。Q17:在您看來,歐洲成為優質AI合作夥伴最有力的訊號是什麼?黃仁勳:歐洲許多國家,德國、瑞典以及英國的部分地區,曾是上一次工業革命的發源地。事實上,有三個國家引領了全球機電一體化的發展,這是技術與機械工藝、工業化的深度融合。機電一體化在德國、瑞典、日本都非常強大;美國曾經也很強,但我們將製造業外包得太多了。然後,下一場工業革命來了——IT和軟體革命,這對製造業來說非常陌生。製造業的文化是嚴格的、一步一步的,每一件產品在發貨之前必須完美,因為它可能傷害到人。而軟體的運作方式是叢集式的,你必須在它還沒有完善之前就發佈,因為如果你不發佈,它永遠不會被修復。這不只是技術上的差異,而是深層的文化差異。正是這種文化差異,導致美國在IT革命中全面主導,而德國卻被落在了後面。但希望來了。OpenClaw不需要你去程式設計,它只需要你告訴它該做什麼。你可以跨越IT革命,直接跳躍到AI革命。這正是我每天對德國、日本、韓國、瑞典所說的話:這是你們的機會,讓過去成為過去。這已經不再重要了——因為正如大家所知,軟體工程師已經不需要再寫程式碼了。對德國來說,這應該是最令人振奮的消息;對日本來說,同樣如此。直接擁抱AI,然後將AI技術與你們世界級的機電一體化工業能力深度融合。你們將一躍成為全球機器人產業的領導者。我是你們最堅定的擁躉。Q18:隨著推理需求的興起,大量初創公司和成熟企業湧現,試圖解決速度、記憶體、功耗等各種瓶頸。其中有些公司公佈的token效率資料,與輝達產品的表現形成了直接競爭。這與GPU早期時代的競爭格局似乎大不相同,被認真對待的競爭者明顯更多。我們如何確信輝達的推理方案是最快、最優的?如果Groq加Vera Rubin成為主流推理解決方案,輝達又將如何維持這種領先優勢?黃仁勳:我建議大家參考兩到三個基準測試,直接看客觀事實。第一是MLPerf,這是行業內最嚴格的基準測試。大家去看看輝達在其中的位置,我們在MLPerf推理和MLPerf訓練兩個榜單上全線第一,而且大多數參與者根本無法完成全部測試項目。第二是SemiAnalysis,這可能是目前覆蓋最全面的推理分析,涵蓋你能想到的每一個維度,結果同樣是輝達。如果允許我引用別人的話,“推理之王”,我就是喜歡這個稱號的感覺。那條冠軍腰帶也很漂亮,通常你得到的是玻璃獎盃,不知道放那裡好,但一條冠軍腰帶,這種感覺蠻好的。這就能清楚地告訴你我們在推理領域的位置。第三是Artificial Analysis,涵蓋了所有API推理服務公司,對每一家推理服務商進行全面評測。你會發現輝達在整個榜單頂端,而且輝達是該榜單覆蓋的約20項服務中唯一一個全系列上榜的解決方案。事實已經說明,我們在推理領域非常、非常強。我們理應獲得這份認可。我們的推理之所以如此出色,不只是因為我們的浮點運算能力強,而是因為我們進行了極致的協同設計。推理是一個巨大的電腦科學問題,是一個巨大的電腦系統工程問題,涵蓋CPU、GPU、縱向擴展交換機、橫向擴展網路技術、記憶體技術、儲存技術——所有這一切必須協同運作才能做好推理,而我們比任何人都做得更好。Q19:請問輝達與台積電在共封裝光學(CPO)方面的合作進展如何?另外,美國商務部長曾希望將台灣40%的晶片產能遷移至美國,這在現實中是否可行?黃仁勳:首先,我們與台積電共同發明了CoUP,這是一種將電子器件與矽光子引擎直接整合在同一塊晶片上的技術。我們為整條供應鏈申請了約100項專利,並將我們的全部技術開放授權給整個供應鏈,以便各方能夠協同打造矽光子CPO(共封裝光學)技術——讓電子與光子在同一個封裝中融合。目前,我們佔據了台積電COUP工藝產能的絕大多數。Spectrum-X的量產爬坡已經啟動,未來還將持續擴大規模。關於40%這個目標——在當前及近期來看非常難以實現,因為需求仍在持續高速增長。台積電正在盡全力在美國亞利桑那州及周邊建立新產能,整條供應鏈也在美國本土佈局。然而,新晶圓廠和新工廠還在建設的同時,全球整體需求的增速之快,使得在近期內實現40%這一目標將極具挑戰。Q20:您向Nebius投資了20億美元,同時也投資了Lumentum和Coherent。請問您在做這些投資時的思路是什麼?黃仁勳:我們始終在思考兩個方向:上游供應鏈和下游合作夥伴。你必須想像輝達的技術與全球解決方案的完整整合路徑,一直延伸到終端使用者側——有人在消耗token,有人在使用OpenClaw,有人在使用ChatGPT、Anthropic,有人在使用Runway、Black Forest Labs……你必須把這條鏈路想通到底。向上看,未來2~5年,我的上游供應鏈需求是什麼,我現在應該為此做那些準備?向下看,我需要怎樣的下游產能——土地、電力、廠房,或者開發者生態——未來1~5年我需要什麼?當你向上看,你會發現我們正在隨Spectrum-6大規模引入矽光子技術,並將在未來幾年把矽光子加入到NVLink的縱向擴展技術中。這意味著我們所需的矽光子產能,將遠超今天全球現有水平。因此我們與供應鏈合作,提前幫助他們建立產能。有時我們提前付款,有時只是給出預測,有時如果某項技術產能極度緊缺但需求巨大,我們可能會選擇直接投資該公司,同時提供預付款、預測以及其他支援。Coherent和Lumentum就是這樣的思路,這屬於我們上游供應鏈的戰略佈局。而Nebius則是下游合作夥伴的投資。上游一個方向,下游另一個方向。我始終沿著整個技術與製造的生命周期進行全域掃描,持續為公司的增長做好準備。Q21:資料對於世界模型極為重要,遊戲能產生大量資料。請問遊戲玩家資料和雲遊戲資料,對於世界模型訓練是否真正有價值,甚至能夠超越遊戲本身的應用範疇?黃仁勳:在一定程度上是的。但需要注意,大多數遊戲並不嚴格遵守物理法則。比如在《堡壘之夜》中,角色的奔跑動作與其體型所能支撐的速度並不匹配,是一種半跑半飛的狀態。因此,在訓練希望基於物理規律的基礎模型時,必須小心過濾掉這類不符合物理規律的觀測資料。遊戲中的角色可以從山頂跳下,遊戲與現實中樹木搖曳、海浪起伏的方式完全不同。如果條件允許,你應當回歸真實基準資料。當然,你也可以使用遙運算元據,或者使用模擬資料——這正是Newton的用武之地。Newton和Isaac Lab運行在3D圖形環境中,但其動畫是完全基於物理模擬的,碰撞遵循物理原理,關節運動遵循逆運動學。因此,Newton和Isaac Lab中的所有屬性都嚴格遵守物理規律,可以將其與真實世界的可觀測資料結合起來,共同訓練世界模型。一旦世界模型達到足夠的能力水平,你甚至可以反過來。用3D圖形控制世界模型來生成新的合成資料。這就形成了一個飛輪:最初我們使用真實視訊資料,然後用3D模擬資料加以增強,幫助我們建構出世界基礎模型,再用遙操作或3D模擬來控制它,進一步放大合成資料的生成規模。這個飛輪正在啟動。這有點像:你必須先積累足夠的知識,理解事物的運作規律,然後才能想像未來的各種可能場景。我們訓練了自己的世界基礎模型,現在能夠生成各種未來的可能性。而這些對未來的合理推演,本身就成為了我們的學習素材——我們將它們轉化為訓練資料的真實基準。就我個人而言,在思考輝達的戰略和行業走勢時,我其實生活在一個完全由腦中模擬建構的未來裡。我會定期校驗這個模擬是否與現實保持一致,持續重新評估。如果我的假設、我的模擬與現實始終保持連貫,說明我對未來的判斷正在成真,我便堅守這個願景,始終如一。Q22:輝達在Spectrum X上採用了CPO。這項技術會擴展到整個網路產品組合中嗎?大規模生產的關鍵挑戰是什麼?另外,這會加深與台灣CPO供應鏈的合作嗎?黃仁勳:我從後往前回答。我們與台灣CPO供應鏈合作非常緊密。當然,這個供應鏈始於台積電的晶片製程工藝,每一個環節,包括組裝和封裝,都極其複雜。Spectrum 6取得了巨大成功。事實上,Spectrum 3也是巨大成功。Spectrum 4是我們的第一款乙太網路交換機。當時所有人都認為我們很難打入乙太網路領域,但我們完全專注於AI乙太網路,徹底重構了乙太網路技術,以支援AI特有的流量類型和計算模式。Spectrum 4、5、6都是巨大的成功。我們現在已經是全球最大的網路公司了。這實際上是NVLink和Spectrum的完美結合,都是本壘打等級的成功。Q23:去年底,Allen Institute的一位知名研究員曾警告,AI算力擴展的可用槓桿——包括資料、精度等——大約還有兩年就會耗盡。您之前提到Blackwell引入了MX資料格式,Vera Rubin又有所推進,請問輝達手中還有那些擴展維度尚未動用?黃仁勳:NVFP4不只是改變了浮點數的精度,而是徹底重構了整個張量核心引擎(Tensor Core Engine)的結構。NVFP4本身就是一套張量核心引擎,而不僅僅是一個數值格式。它的處理結構是動態的——動態上採樣、動態下採樣,從而在儘可能節省能耗、提升計算量的同時,保留最終計算結果的精度。這套動態調整機制,正是張量核心引擎之美所在。整個行業在FP8上的普及才剛剛穩固,我們已經在推動向NVFP4的遷移了。再往後,FP1這類格式確實有些奇特,精度擴展的空間大概也快到頭了。所以你最初的判斷並非沒有道理。但輝達有一個重要優勢:極致的協同設計。過去十年,我們的計算效率提升了約100萬倍,而摩爾定律在同期只貢獻了約100倍。摩爾定律鼎盛時期的預測是十年100倍,而我們做到了100萬倍。我們不只是靠精度的提升。單靠精度,每年大約只有2倍的提升空間。我們的速度遠超精度擴展所能解釋的範圍,未來也將如此。我們還有很多旋鈕可以撥動。每一年,我都會向大家展示新的旋鈕。去年,我們展示了NVLink 72,在功耗大致相當的前提下,性能提升了35倍。這就是架構的力量,這正是極致協同設計如此重要的原因。也許可以給大家一個小提示:未來不只是關於大模型層面的最佳化,未來是關於智能體系統。智能體系統使整個問題空間再次大幅擴展。而當問題空間擴展,你就有更大的機會去尋找那個質的飛躍。Q24:隨著智能體工作流的興起,許多人認為新思科技、Cadence這類傳統軟體平台將被取代。請問您如何看待AI與這些軟體公司之間的關係?黃仁勳:請轉告散戶投資者,他們的判斷完全錯了。這甚至不是我需要保護的業務,但是非對錯還是要講清楚。舉個例子,新思科技、Cadence,以及所有設計工具,它們業務規模的上限,取決於有多少工程師坐在那裡使用。工程師數量有多少,工具就能賣出多少許可證。就像管道工多了,管道工具就賣得多;木匠多了,木工工具就賣得多。但未來,我們將擁有大量AI智能體工程師。這些智能體工程師會做什麼?憑空生成電晶體嗎?不,它們會使用和人類工程師一樣的工具,因為工作完成後,必須把結果放回人類可以理解的結構化資料中。如果我無法理解、無法控制輸出結果,這就回到了我們反覆提到的可控性問題。SQL會因為智能體的出現而消亡嗎?不會,SQL恰恰是我們業務真實基準的存放地。當智能體完成工作,請把結果放回SQL,這樣我隨時都可以去查詢。同理,當智能體完成晶片設計,它會使用新思科技和Cadence的工具,設計結果最終也會回歸到這些工具的檔案系統和資料結構中,這才是設計的真實基準。如果我需要精確復現設計,不是“大概能用”,而是“必須精確可用”,AI深度學習可以生成大致可行的設計,但我不能接受“大致可行”,我需要“完全精確”,而這正需要新思科技的工具來保證一致性。正因為有了智能體,我們需要授權的新思科技工具數量很可能會爆炸式增長,而不是減少。有些人有個奇怪的想法,認為AI可以從零開始憑空生成電晶體,他們以為輝達工程師每天就像在用Nano Banana生圖一樣設計晶片。這裡沒有貶低Nano Banana的意思,但晶片設計必須一層一層地精確建構,因為它必須是可驗證的、可理解的、可重複的、可控的——不能依賴機率。Q25:請問你去年最大的挑戰是什麼,今年最大的風險又是什麼?黃仁勳:我的工作可太難了。就一條嗎?我的人生哲學非常簡單:別被開除,別無聊,別死。在這三者之間,儘量保持平衡。這對輝達同樣適用:不要被客戶開除,不要無聊到公司停止創造價值,不要倒閉,然後待在這三者的中間地帶。這就是人生秘訣,去年如此,今年亦然——你可以說是黃仁勳的“人生三訣”。這三條聽起來簡單,但每一條都是極高風險的。Q26:在中東戰爭和全球地緣政治動盪的背景下,輝達如何看待在台灣方面的風險?黃仁勳:首先,我們在以色列有6000個家庭,我非常擔心他們。我知道他們自己也很擔憂,但我們公司仍在非常努力地營運,員工們依然在非常努力地工作。儘管如此,這絲毫不減輕我們對他們的牽掛。我對以色列的承諾是百分之百的——我們會長期在那裡,員工得到我們百分之百的支援。對台灣同樣如此。我們在那裡有數千名員工,他們深耕於此已經很長時間。我們整條供應鏈都在那裡,與我們合作的數百家公司中,不乏全球最重要的企業。我唯一的希望,是大家都能攜手合作,保持和平,著眼大局,保持冷靜,不斷提升自身韌性。我百分之百相信,我們將繼續依靠和倚重以色列的出色產業;我同樣百分之百確信,整個世界將在很長很長一段時間內繼續依賴台灣。Q27:如果您的願景得以實現,十年後輝達會是什麼面貌?黃仁勳:我們會非常忙碌。希望屆時輝達擁有約75000名員工,規模儘可能精簡,同時足以支撐使命。這75000名員工將與750萬個AI智能體協同工作,智能體全天候不間斷運轉。希望我們的員工不需要跟上智能體的節奏,我很確定他們也跟不上。這就是未來。我們將解決一些真正了不起的問題。我們今天正在努力解決的那些事情,十年前沒有人會想像這是可解的。機器人基本上已經是一個被解決的問題;自動駕駛汽車基本上也是一個被解決的問題;藥物研發,我們正在像對待工程問題一樣對待它。延長人類壽命——這一切現在都完全處於可能性的範圍之內。十年前,沒有人會想像這些是可實現的。而十年後,最好的思維工具之一,就是認識到不可能其實相當實際可行——任何看似需要數百萬倍能量、成本或時間的事,都可以被壓縮數十億倍。距離會縮短,一切將因機器人變得更輕盈,事情會完成得更快,能源消耗也將大幅降低。在我剛畢業的那個年代,我們今天談論的一切,連科幻小說裡都沒有出現過。我們現在談論的這些事情,本身就已是非凡壯舉。關於人類,我唯一可以確定的是:我們如今允許自己打開想像力去解決的問題,比四年前多出了百萬倍。那麼再過十年,當我們意識到還能解決那些問題時,會是什麼景象?那些問題我們甚至還沒開始想像。因此,我非常確信,未來還有無數等待我們去解決的偉大問題。我甚至嫉妒那些四十年後還在世的人。Q28:Vera Rubin整體系統,主要是為瞭解決當前的技術瓶頸,還是在重塑AI的商業模式?黃仁勳:我們建構的每一套系統,都能讓當前的問題和工作負載得到數倍的提升,同時也總會開闢出一片新的問題空間——那些我們今天還無法解決的問題的新視野。昨天我展示圖表時,有一個規律我每次都會呈現:我們既向上推——對於任何給定的工作負載,我們持續提升吞吐量和性能;也向右推,AI變得更聰明,能力邊界不斷擴展,出現新的可能性。舉個例子:今天使用ChatGPT或任何AI,你大約能獲得每秒20個token的生成速度。而我展示的圖表是每秒1000個、乃至2000個token。想像一下——你按下回車,答案以快100倍的速度返回。未來,當你還在輸入的時候,AI已經在思考了;等你按下回車,它已經完成了。不論是幫我寫一個網站程序,還是幫我設計一個廚房——按下回車,完成。這就是未來。每一年,我們提升吞吐量,我們擴展可能性的邊界。Q29:您說AI讓我們所有人都更忙了,但同時您又預測物理AI和機器人將承擔今天工人從事的體力勞動。這兩件事如何能同時成立?未來會不會出現大規模失業?黃仁勳:首先,全球目前有數千萬製造業崗位的缺口。大家知道嗎?我們的卡車司機短缺數百萬。製造業工人短缺數千萬。就業率很高,但很多公司仍然招不到足夠的勞動力,大多數公司都面臨勞動力短缺的問題。機器人將填補這個缺口。這是第一層。填補缺口的結果,是所有國家的經濟都將增長。而經濟增長時,大多數公司往往會僱用更多人,用來管理更多機器人,管理更多智能體,推動業務增長,發現新問題、解決新問題,嵌入新技術,發明新產品、新服務。這很可能就是未來的軌跡。我之所以這樣判斷,是因為:如果我取今天這個點,再取100年前那個點,連成一條直線——就業崗位數量一直在增長,各國經濟一直在增長,我們所有人都比以往任何時候都更忙。你上一次坐在門廊的搖椅上,喝著一杯檸檬水,看夕陽西下,是什麼時候?那個畫面是100年前的事了,不是嗎?我們比以往任何時候都更忙。這條趨勢線大機率還會延續。我們都將有穩定的工作。當然,每一種職業都會發生變化,有些工作會消失,有些工作是全新的。就像過去人們用馬來耕地、代步,而現在一匹良馬價值500萬美元。世界在變,AI會改變這一切,但我相當確信,這將是一個更美好的世界。Q30:昨天的公告中提到了現代、日產、比亞迪、吉利與輝達的合作。對於比亞迪和吉利而言,L4等級的自動駕駛功能落地,在中國的監管環境下究竟如何運作?黃仁勳:這是這樣運作的:在中國,比亞迪、吉利、小鵬、理想都是我們的合作夥伴和客戶,它們發展得很好,也將繼續發展得很好。我們與它們共同基於DRIVE Hyperion實現了感測器和計算架構的標準化。當它們的汽車進入歐洲市場,某些國家可能無法接受它們的軟體棧。這時,輝達的軟體棧就可以直接啟用。而在中國,它們使用自己的軟體棧完全沒有問題。在歐洲或亞洲的某些地區,如果當地軟體棧不適用或不被接受,我們的軟體棧就可以替代上去。中國政府的規定適用於中國,但並不適用於德國。比如,如果比亞迪想在德國以自動駕駛模式營運、接入Uber,它完全可以使用DRIVE OS來實現。這就是雙贏的方案。我們只是想讓所有人都滿意。(現場,全球規模最大的汽車媒體Motor Trend宣佈授予黃仁勳“年度人物”)黃仁勳:真的嗎?太棒了,謝謝。我要站在這裡,直到再多拿幾個獎。不過我需要懺悔一下,我已經兩年沒有自己開車了,我現在是被自動駕駛接送的。我得了“推理之王金腰帶”、“Motor Trend年度人物獎”,太棒了。Q31:CUDA在2006年發佈,市場過了很多年才真正理解它的價值;NVLink 2014年推出,NVLink 72 去年才被廣泛認可。請問您認為輝達現有產品中,那一個是市場目前尚未充分理解、但五到十年後將被證明極為重要的?黃仁勳:我會說Alpamayo是其中之一,Cosmos是其中之一,Omniverse絕對是其中之一,Dynamo已經被人們理解但尚未被充分重視,它對AI工廠整個生態的深遠影響,毋庸置疑。還有一個概念:如何在AI工廠的語境下思考性能這個問題?這是一個非常新的概念,我還需要多次反覆講解。但終有一天,全球每一位CEO都會懂它,每一個董事會都會理解它,每一家公司都會用它來估算自己未來的營收,它將成為工廠營運流程和企業戰略規劃的核心組成部分。這個概念對未來的產業極為關鍵,但目前理解還不夠深,我需要再講上17遍,沒關係,已經有足夠多的人理解了,但還有很多工作要做。Q32:你曾說過,希望大家經歷大量的痛苦和磨難。請問在一個相對完美的世界裡,您會推薦人們去經歷什麼樣的苦難,才能走到您今天的位置?黃仁勳:首先,那番話是對一群大學生說的。在座各位已經是研究生以上了,應該好好享受生活了。苦難嘛……你看,每當你學習一件新事物,都伴隨著相當程度的痛苦;每當你做超出舒適區的事情,都會如此;每當你站在台上做主題演講,知道所有人都在評判你,而你也知道自己可能不會像自己期望的那樣完美——這其中始終有一份焦慮與痛苦。備戰任何事情都需要大量的投入,苦難無處不在,這毋庸置疑。這正是追求卓越不可或缺的一部分,是追求成為最好的自己不可或缺的一部分。只要你感到自己在全力追求成為最好的自己,竭盡所能,把一切都留在場上,那麼苦難一定已經發生了。 (智東西)
【GTC 2026】兆美金後的新霸主:黃仁勳GTC 2026全解讀,AI正式進入“Token工廠”時代
台北時間2026年3月17日凌晨2點,沒有絲毫意外,全球科技圈的目光再次聚焦於那個穿著皮衣的男人身上。輝達GTC 2026大會如約而至。如果你還以為這只是一場關於顯示卡參數的發佈會,那你可能已經掉隊了。今年的GTC,黃仁勳不再僅僅談論晶片,而是拋出了一個震撼行業的全新定義:輝達已經從一家“晶片公司”徹底蛻變為一家“AI基礎設施和工廠公司”。這場長達兩小時的演講,資訊密度極高。從CUDA生態的飛輪效應,到Token成本的極致壓縮;從Vera Rubin平台的量產,到Feynman架構的前瞻;再到那個讓全場沸騰的“龍蝦”NemoClaw。黃仁勳用無可辯駁的資料和路線圖,向世界展示了AI推理時代的宏大圖景。01 20年的飛輪:CUDA的護城河比想像中更深演講伊始,黃仁勳並沒有急於拋出新的硬體參數,而是花了近十分鐘回溯CUDA架構誕生20年的歷程。這不僅是對過去的致敬,更是對護城河的宣示。螢幕上展示著“20 YEARS CUDA FLYWHEEL”(20年CUDA飛輪)的巨大循環圖,這不僅是技術的循環,更是商業的邏輯。“二十年來,我們一直致力於這種革命性架構——單指令多線程(SIMT)。”黃仁勳回憶道。CUDA的真正壁壘,在於底層的安裝基數。這是一個經典的飛輪效應:安裝基數:全球數億塊運行CUDA的GPU構成了龐大的底座。開發者:龐大的底座吸引開發者創造新演算法。突破:新演算法帶來技術突破(如深度學習)。生態:技術突破催生新市場,吸引更多公司加入,進一步擴大安裝基數。“CUDA真正融入了每一個生態系統。”黃仁勳指著那張描述其媒體戰略的幻燈片說道。這種軟硬一體的生態壁壘,讓NVIDIA的架構應用範圍不斷擴展,計算成本持續降低。正如他所強調的,加速計算不僅帶來初期的性能躍升,還能在生命周期內持續最佳化軟體,讓算力成本不斷下降。02 資料革命:結構化與非結構化資料的全面加速在本次演講中,黃仁勳著重介紹了輝達為資料處理打造的核心軟體庫,並稱其為“本場演講最重要的一張圖”。隨著AI的爆發,全球資料處理體系正面臨結構性變革。螢幕上展示了一張複雜的圖表,標題為“Structured Data is the Ground Truth of AI”(結構化資料是AI的“真相”),這是一個價值1200億美元的生態系統。過去,企業計算建立在結構化資料之上。但未來,AI智能體將直接訪問和使用這些資料庫。與此同時,全球每年產生的資料中約90%是非結構化資料。AI的多模態能力正在將這些“死資料”轉化為可計算的資訊。為此,NVIDIA推出了兩項關鍵技術:cuDF:加速資料框計算,面向結構化資料。cuVS:面向向量儲存和語義資料,處理非結構化資料。黃仁勳透露,SQL的發明者IBM正在利用cuDF加速其watsonx.data平台。這標誌著AI正在重塑整個資料處理基礎設施。03 推理拐點:Token成本全球最低“去年我說營收將達5000億美元,你們可能沒覺得驚豔。但今天,我預見通過2027年的營收將至少達到1兆美元。”黃仁勳的這句話引爆了全場。支撐這一驚人預測的,是AI計算需求的爆發式增長。螢幕上清晰地標示著“Inference Inflection Arrives”(推理拐點到來)黃仁勳指出,過去兩年,計算需求增長了約10,000倍。這背後是三件大事的發生:ChatGPT開啟生成式AI時代:計算從“檢索”轉向“生成”。推理AI(o1/o3)的出現:AI開始思考、規劃,Token使用量爆炸。Claude Code開啟代理時代:首個代理模型革新了軟體工程。“推理既是最困難的環節,也是最關鍵的商業環節。”黃仁勳強調。在資料中心層面,衡量效率的關鍵指標是“每瓦特生成多少Token”。評測結果顯示,NVIDIA在AI推理性能和效率上保持絕對領先。從Hopper H200到Grace Blackwell NVLink 72架構,每瓦特性能提升約35倍,分析師甚至認為接近50倍。螢幕上打出了“NVIDIA Token Cost is Untouchable”(NVIDIA Token成本不可觸碰)的字樣。黃仁勳放出豪言:“即便競爭對手的架構是免費的,它也不夠便宜。” 因為建立一個1GW的工廠,即便什麼都不放,15年的攤銷成本也高達400億美元。只有運行最強的電腦系統,才能獲得最低的Token生產成本。04 Vera Rubin:為智能體AI而生的超級電腦演講的高潮之一,是Vera Rubin超級AI平台的亮相。這是一個由七款晶片組成的全新計算平台,涵蓋計算、網路和儲存三大功能。螢幕上展示的“NVIDIA Vera Rubin”字樣下,赫然寫著“40,000,000X - 10 years”(10年4000萬倍性能提升),震撼人心。 該平台包含40個機架、1.2千兆個電晶體、近2萬個NVIDIA晶片、1152個Rubin GPU,擁有60 exaflops的運算能力。這是一個完全縱向整合的計算平台,專門為智能體AI(Agentic AI)設計。隨著大模型處理更長上下文,系統需要更高頻寬的記憶體和儲存訪問能力,因此NVIDIA對整個系統架構進行了重新設計。硬體層面,全新的NVIDIA Vera CPU開始單獨銷售,有望成為一項數十億美元級業務。系統設計方面,採用100%液冷架構,通過45°C熱水散熱,大幅降低製冷成本,整機安裝時間從兩天縮短至兩小時。更引人注目的是,NVIDIA推出了全球首個CPO(光電共封裝)乙太網路交換機,將光模組直接整合到晶片封裝中,顯著提升頻寬與能效。針對光互聯技術,黃仁勳展示了全球首款量產的共封裝光學(CPO)交換機Spectrum X,並平息了市場對於“銅退光進”的路線之爭。黃仁勳說我們需要更多的銅纜產能,更多的光晶片產能,更多的CPO產能。而在未來的版圖中,Rubin Ultra和Feynman架構也已提上日程。螢幕上展示的路線圖清晰地標示著從2024年Blackwell到2028年Feynman的演進路徑,每一次迭代都涉及晶片、CPU、網路交換機等關鍵元件的全面升級 Feynman架構將採用定製化HBM技術,搭載全新的Rosa CPU,標誌著計算、儲存和封裝的深度耦合。05 “龍蝦”創造歷史:SaaS將消失整場演講中,對軟體開發者影響最深遠的,莫過於對“龍蝦”現象的評論。螢幕上展示了一張Star History圖,紅色的openclaw/openclaw曲線在2024-2026年間急劇飆升,遠超Linux和React,其增長速度“極其深遠” 黃仁勳宣佈,NVIDIA將正式支援這一項目。OpenClaw被黃仁勳定義為一種智能體電腦的作業系統。它連接大模型,管理資源,調度任務,類似於Linux之於PC,Kubernetes之於雲,HTML之於網際網路。“未來所有科技公司都會面臨一個問題——你的OpenClaw戰略是什麼?”黃仁勳的這句話擲地有聲。他認為,未來幾乎所有SaaS公司都將演變為AaaS(Agentic as a Service)——即以智能體為核心的服務平台。針對智能體進入企業網路帶來的安全挑戰,NVIDIA推出了NVIDIA NemoClaw參考架構。螢幕上演示了簡單的安裝命令:curl -fsSL https://nvidia.com/nemoclaw.sh | bash,顯示出NVIDIA推動這一生態落地的決心。NemoClaw在OpenClaw基礎上加入了安全元件,確保企業能安全部署智能體系統。甚至未來工程師招聘,除了薪資,公司還會提供“Token配額”,因為算力將直接決定生產效率。06 物理AI與數字孿生:AI工廠的作業系統AI的未來不僅在數字世界,更在物理世界。黃仁勳介紹了面向“AI工廠”的基礎設施平台——NVIDIA DSX在資料中心建設階段,系統通過工程模擬工具進行驗證,實現“虛擬偵錯”;投入運行後,數字孿生系統成為基礎設施的“作業系統”,AI智能體即時監控冷卻、電力和網路,動態最佳化效率。在物理AI方面,NVIDIA的觸角已延伸至自動駕駛和機器人。螢幕上展示的“NVIDIA Space-1 Vera Rubin Module”暗示了其向太空計算領域的拓展。自動駕駛領域,基於NVIDIA Drive AV,車輛已具備推理能力。NVIDIA宣佈了新的Robotaxi合作夥伴,包括BYD、Hyundai、Nissan和Geely,並與Uber合作部署自動駕駛計程車網路。機器人產業方面,正與ABB、KUKA等企業合作,將物理AI模型用於工業自動化。結語:跨越“推理鴻溝”,中國AI產業的破局之路演講的最後,黃仁勳站在巨大的“NVIDIA Vera Rubin”標識前,背後是醒目的“40,000,000X - 10 years”。這一刻,我們看到的不再是單一的晶片迭代,而是一場宏大的生態進化。從底層的CUDA飛輪,到算力成本的極致壓縮;從智能體作業系統NemoClaw的推出,到SaaS向AaaS的範式轉移;從資料中心向AI工廠的蛻變,到物理AI的全面覺醒。黃仁勳用這場演講證明:AI推理的拐點已經到來。未來的競爭,不再僅僅是算力的競爭,更是Token生產效率、智能體生態和物理世界融合能力的全方位競爭。面對輝達如此強勁的實力與深不見底的護城河,中國AI產業該如何趕上?這或許是每個從業者看完這場演講後最深刻的思考。首先,必須正視“軟體生態”的斷層。 黃仁勳反覆強調,CUDA的安裝基數才是飛輪加速的原因,這不僅是硬體的勝利,更是二十年軟體生態的積累。中國產業界往往重硬輕軟,但在AI時代,軟體棧(如cuDF、cuVS等核心庫)才是連接應用與算力的橋樑。我們不僅需要造出“卡”,更需要打磨出能承載萬行程式碼、適配千行場景的“軟底座”。其次,要從“單一產品”思維轉向“系統級整合”。 Vera Rubin平台的成功在於其垂直整合能力——從Vera CPU到NVLink互連,再到液冷機架,這是一個整體的“超級電腦”。中國廠商不能只盯著單點突破,而應致力於建構從晶片、網路到液冷散熱的整體系統解決方案,追求每瓦特性能的極致最佳化。最後,要抓住“智能體”與“物理AI”的新範式窗口。 當SaaS轉向AaaS,當OpenClaw成為新的作業系統入口,這意味著軟體開發的底層邏輯正在重構。這是彎道超車的機會。中國企業應積極擁抱開源生態,在智能體安全、垂直行業大模型、以及物理AI(如機器人、自動駕駛)的落地場景中尋找差異化優勢,建構屬於自己的“主權AI”。在這場通往未來的競賽中,輝達已經鋪好了最堅實的鐵軌,但列車駛向何方,依然取決於我們如何握緊手中的方向盤。 (算力與科技茶館)
【GTC 2026】黃仁勳祭出終極AI推理神器!
黃仁勳介紹稱,LPX與Vera Rubin平台結合後,推理吞吐量/功耗比將能提升35倍。在GTC 2026主題演講上,一款名為輝達Groq 3 LPU的全新晶片正式亮相。台北時間周二凌晨,輝達正式推出Vera Rubin平台,包括Groq 3 LPU(簡稱LPU)在內,共計搭載了七款晶片,分別為Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9超級網路卡、BlueField-4 DPU和Spectrum-6乙太網路交換機。據悉,輝達將建構包含256個LPU的Groq 3 LPX機架,提供128GB(每個LPU整合500MB的SRAM)的SRAM和40 PB/s的推理加速頻寬,並通過每個機架640 TB/s的專用擴展介面將這些晶片連接起來。這款機架將與Vera Rubin NVL72、Vera CPU等另外四款機架一同構成完整的AI超級電腦平台Vera Rubin。輝達表示,Groq 3 LPX 是Vera Rubin的推理加速器,旨在滿足智能體系統對低延遲和大上下文的需求。Vera Rubin和LPX通過協同設計的架構,將Rubin GPU和LPU的卓越性能完美結合,使其呈現極低延遲與超大吞吐量的特點。黃仁勳介紹稱,LPX與Vera Rubin平台結合後,推理吞吐量/功耗比將能提升35倍。LPU晶片將由三星代工,預計機架將於今年下半年開始出貨。就在昨日,分析師郭明錤發文稱,在輝達投資Groq之後,LPU的出貨量預測已大幅上調。預計2026至2027年的總出貨量將達到400萬至500萬顆。新架構機櫃預計於今年第四季度開始量產,2026年與2027年機櫃出貨量分別約為300至500個,以及15000至20000個。在他看來,LPU需求增長快速增長主要來自外部因素。一方面,LPU與輝達生態系(如CUDA)高度整合,大幅降低應用開發與部署門檻。另一方面,如今業內超低延遲推理需求快速增加,包括AI智能體(AI Agents)以及正在興起的即時處理(Real-Time)、終端使用者(Consumer-Facing)與物理AI(Physical-AI)等類型應用。值得一提的是,黃仁勳在主題演講上也強調,AI已完成從感知智能到生成智能,再到物理智能和智能體智能的關鍵躍遷。財通證券指出,大模型在推理過程中會存在延遲,延遲與使用者體驗感精密掛鉤,大模型推理過程中的延遲主要在Decode階段,核心瓶頸在於記憶體頻寬。LPU具備更快的記憶體頻寬,可縮短大模型推理過程中的延遲。同時,基於LPU的大模型不僅具有更快的推理速度,還可以提供更具性價比的價格,可進一步提高使用者體驗感。該機構表示,目前Tokens的消耗量大幅增長,帶動推理晶片市場規模的高增長。LPU有望在推理晶片市場中逐步滲透,具有高成長性的市場空間。看好LPU的高成長性及LPU以機櫃出貨時帶來的PCB機會,建議關注:智微智能(參股元川微)、星宸科技(多輪增資元川微)、滬電股份(輝達PCB供應商)、勝宏科技(輝達PCB供應商)、深南電路。 (科創板日報)